Как работает ИИ. Математический принцип

Я уже рассказывал, как объяснял другу, сидящему в колонии строгого режима, что такое ИИ, так как он уже более трёх дет лишён свободы и просто не знает, как поменялся мир за это время.

Вторая серия о том, как ИИ работает технически.

Если объяснить совсем по сути, современный ИИ вроде ChatGPT — это не «мыслящая личность» и не база готовых ответов, а очень большая математическая функция, обученная угадывать, какой следующий кусок текста наиболее вероятен после предыдущих.

1. С чего всё начинается: текст превращают в числа

Компьютер не понимает слова как человек. Для него всё должно быть числами. Поэтому фраза вроде «Как работает ИИ?» сначала разбивается на маленькие кусочки — токены. Токеном может быть слово, часть слова, знак препинания или даже пробел в особом виде. Например, «работает» может быть одним токеном, а может быть разбито на несколько частей — зависит от словаря модели.

Каждому токену соответствует номер. То есть текст сначала превращается в последовательность целых чисел. Уже это делает язык удобным для машинной обработки.

Но одного номера мало. Число «15273» само по себе не говорит, что это слово похоже на «модель» или связано с темой математики. Поэтому каждый токен переводится в вектор — длинный список чисел. Например, не просто «15273», а условно массив из 4 096 или 8 192 чисел. Это называется «эмбеддинг». Именно в таких векторах модель хранит «смысловые координаты». Слова с похожим употреблением оказываются рядом в этом многомерном пространстве.

2. Главная математика: линейная алгебра и вероятности

Внутри языковой модели почти всё держится на трёх вещах:

  1. умножение матриц;
  2. сложение и нелинейные преобразования;
  3. расчёт вероятностей.

Если очень грубо, модель берёт входные векторы и много раз прогоняет их через огромные таблицы чисел — матрицы весов. Вес — это просто параметр, число, которое модель подстроила во время обучения. Таких параметров могут быть миллиарды и сотни миллиардов.

Что делает модель на каждом шаге? Она пересчитывает представление текста, пытаясь уловить связи: к чему относится местоимение, где начало и конец мысли, какой стиль у текста, что логично продолжить дальше. Это и есть математика «понимания» в инженерном смысле: не осознание, а преобразование числовых представлений так, чтобы из них можно было хорошо предсказывать продолжение.

3. Почему все говорят про «трансформер» и attention

Большинство современных больших языковых моделей устроены по архитектуре Transformer. Её ключевая идея — attention, то есть механизм «внимания».

Когда модель читает текущий текст, она не обрабатывает каждое слово в полной изоляции. Она вычисляет, на какие предыдущие токены надо смотреть сильнее, а на какие слабее. Например, в предложении «Мария положила книгу на стол, потому что она была тяжёлая» модель пытается понять, к чему относится «она» — к книге или к столу. Для этого attention сравнивает токены друг с другом.

Технически это делается тоже через математику: из каждого токена вычисляются три вектора — Query, Key и Value. Потом считаются скалярные произведения между Query одного токена и Key других токенов. Получаются числа важности. После нормализации модель решает, сколько информации взять от каждого предыдущего элемента.

Иначе говоря, attention — это способ взвешенно смешивать контекст.

4. Как модель обучают

Обучение выглядит очень прозаично: модели дают огромные массивы текста и скрывают следующий токен. Её задача — предсказать его. Если предсказание плохое, веса немного меняют. Если хорошее — изменение меньше.

Формально модель выдаёт распределение вероятностей по словарю токенов. Например:

  • «и» — 12 %
  • «это» — 9 %
  • «модель» — 18 %
  • «работает» — 4 %

Правильный токен известен из обучающего текста. Считается ошибка, обычно через функцию потерь вроде cross-entropy. Затем по этой ошибке считается градиент — то есть как надо изменить каждый вес, чтобы в будущем ошибка стала меньше. Это делается методом обратного распространения ошибки и вариантами градиентного спуска.

Так модель проходит через гигантское количество примеров и постепенно подгоняет миллиарды параметров.

5. Где тут процессоры и почему нужны GPU

Обычный центральный процессор, CPU, хорош для самых разных задач, но плохо подходит для огромного числа одинаковых операций над матрицами. А обучение ИИ — это именно бесконечные массовые операции: умножения, сложения, нормализация, вычисление градиентов.

Поэтому используют GPU — графические процессоры. Исторически они создавались для графики, но оказались идеальны для параллельной математики. Если CPU силён в сложной логике и последовательных шагах, то GPU силён в том, чтобы одновременно выполнять тысячи похожих операций.

Для обучения крупных моделей используют не один GPU, а целые кластеры. Память тоже критична: веса модели, промежуточные активации, данные для обратного прохода — всё это занимает огромные объёмы. Поэтому важны не только вычисления, но и пропускная способность памяти, скорость обмена между ускорителями, сетевые соединения между серверами.

6. Почему всё в итоге сводится к числам

Кажется магией, что из одних чисел получается осмысленный текст. Но дело в масштабе. Если модель увидела огромное количество примеров, она начинает статистически улавливать закономерности:

  • после одних слов чаще идут другие;
  • определённые конструкции характерны для научного текста;
  • в вопросе о математике часто встречаются слова «матрица», «вектор», «вероятность»;
  • если раньше в разговоре упоминали Италию, то «Венеция» становится более вероятной, чем «Новосибирск».

То есть ИИ не «знает» всё в человеческом смысле, а строит очень сложную поверхность вероятностей над пространством текста.

7. Как происходит выдача ответа

Когда пользователь пишет запрос, модель снова превращает его в токены, прогоняет через свои слои и получает вероятности следующего токена. Затем выбирается один токен. Потом он добавляется к уже написанному тексту, и процесс повторяется.

Ответ рождается по одному токену за шаг.

Выбор бывает разным. Можно брать самый вероятный токен — это делает ответ более сухим и предсказуемым. Можно использовать «температуру» и сэмплирование: тогда из нескольких правдоподобных вариантов выбирается один случайным, но контролируемым образом. Чем выше температура, тем больше разнообразия и риск странностей. Чем ниже — тем больше шаблонности.

8. Почему ИИ ошибается и «галлюцинирует»

Потому что его цель — не «говорить правду», а строить правдоподобное продолжение. Если в данных было мало хороших примеров, если вопрос двусмысленный, если нужна точная свежая информация, модель может сгенерировать убедительный, но неверный текст.

Именно поэтому ИИ силён в языке, стиле, структуре, обобщении, программировании по шаблонам, но требует проверки там, где важны точные факты.

9. Самая короткая суть

ИИ такого типа — это гигантская система чисел, которая:

  1. переводит текст в токены и векторы;
  2. многократно преобразует их через матрицы;
  3. с помощью attention учитывает контекст;
  4. оценивает вероятности следующего токена;
  5. выдаёт ответ шаг за шагом.

Снаружи это похоже на разговор. Внутри — это колоссальная линейная алгебра, теория вероятностей, оптимизация и очень много вычислений на GPU.

На этом объяснение «на пальцах» закончено. Ниже более научное объяснение с формулами и числами.

Если смотреть уже не на общую идею, а на внутреннюю механику, то языковая модель — это композиция очень больших функций вида

fθ(x)=y,f_\theta(x)=y,

где xx — входные токены, yy — распределения вероятностей следующих токенов, а θ\theta — параметры модели. Параметров может быть 10910^9, 101010^{10} и больше: 7 млрд, 13 млрд, 70 млрд, 175 млрд и так далее. Каждый параметр — это просто число, но в сумме они образуют огромную вычислительную схему.

Токены, словарь, векторы

Пусть словарь модели содержит V=100000V=100\,000. Тогда любой текст после токенизации превращается в последовательность целых чисел:

[1542, 87, 9911, 42,][1542,\ 87,\ 9911,\ 42,\dots]

Дальше каждый токен заменяется на вектор размерности ddd. Типичные порядки: d=768d=768, 20482048, 40964096, 81928192. Если d=4096d=4096, то один токен становится точкой в пространстве из 4096 координат:

eiR4096e_i \in \mathbb{R}^{4096}

Матрица эмбеддингов имеет размер

ERV×dE \in \mathbb{R}^{V \times d}

Например, при V=100000V=100\,000 и d=4096d=4096 это уже 409,6 млн чисел только на входной словарь.

Позиция тоже кодируется числами

Порядок слов сам по себе не следует из набора токенов, поэтому к эмбеддингам добавляют позиционную информацию:

X=E(tokens)+PX = E(tokens) + P

где PP — позиционные векторы. Иначе последовательности «кот укусил пса» и «пса укусил кот» выглядели бы почти одинаково.

Если длина контекста L=8192L=8192, а размерность d=4096d=4096, то вход в один слой — это матрица

XR8192×4096X \in \mathbb{R}^{8192 \times 4096}

то есть более 33 млн чисел только в представлении текущего контекста.

Внимание как математика связи токенов

Внутри слоя трансформера вычисляются три матрицы:

Q=XWQ,K=XWK,V=XWVQ=XW_Q,\quad K=XW_K,\quad V=XW_V

где WQ,WK,WVW_Q, W_K, W_V​ — обучаемые веса. Затем строится матрица сходства:

S=QKTdkS=\frac{QK^T}{\sqrt{d_k}}

Если длина контекста LL, то SS имеет размер L×LL \times L. При L=8192L=8192 это уже

81922=671088648192^2 = 67\,108\,864

элементов — только для одной головы внимания.

После этого применяется softmax:

A=softmax(S)A=\text{softmax}(S)

и итог внимания получается так:

Attention(Q,K,V)=AV\text{Attention}(Q,K,V)=AV

Смысл в том, что каждый токен получает взвешенную смесь других токенов. Если голов внимания h=32h=32, то всё это делается параллельно 32 раза, а затем результаты склеиваются.

Многослойность

Один блок трансформера обычно содержит:

  1. multi-head attention,
  2. остаточные связи,
  3. layer normalization,
  4. feed-forward network.

Упрощённо:H1=X+MHA(X)H_1 = X + \text{MHA}(X)H2=H1+FFN(H1)H_2 = H_1 + \text{FFN}(H_1)

FFN — это обычно два линейных преобразования с расширением размерности. Например, при d=4096d=4096 внутренний слой может быть 4d=163844d=16384 или около того:

FFN(x)=W2σ(W1x)\text{FFN}(x)=W_2 \sigma(W_1 x)

Если модель имеет 32, 48 или 80 таких блоков, вычисления проходят через них последовательно. Поэтому глубина тоже измеряется десятками слоёв, а не двумя-тремя.

Откуда берётся следующий токен

После всех слоёв модель получает вектор скрытого состояния hh для последней позиции и переводит его в логиты:

z=Wouthz = W_{out} h

где zRVz \in \mathbb{R}^{V}. Если V=100000V=100\,000, то модель выдаёт 100 тысяч чисел — «сырых оценок» для всех токенов словаря. Затем снова softmax:

pi=ezij=1Vezjp_i=\frac{e^{z_i}}{\sum_{j=1}^{V} e^{z_j}}

На выходе — распределение вероятностей. Например:p(«модель»)=0.31,p(«система»)=0.22,p(«алгоритм»)=0.11p(\text{«модель»})=0.31,\quad p(\text{«система»})=0.22,\quad p(\text{«алгоритм»})=0.11p(«модель»)=0.31,p(«система»)=0.22,p(«алгоритм»)=0.11

Дальше выбирается один токен: либо максимум, либо случайная выборка из распределения.

Температура и выборка

При сэмплировании логиты часто делят на температуру TTT:pi=ezi/Tjezj/Tp_i=\frac{e^{z_i/T}}{\sum_j e^{z_j/T}}pi​=∑j​ezj​/Tezi​/T​

Если T=0.2T=0.2T=0.2, распределение становится «острее»: модель почти всегда выбирает самые вероятные варианты.
Если T=1.0T=1.0T=1.0, текст разнообразнее.
Если T=1.5T=1.5T=1.5, растёт креативность, но и вероятность абсурда тоже.

Иногда дополнительно используют top-k или top-p. Например, top-k = 40 означает: оставить только 40 самых вероятных токенов, остальные обнулить.

Обучение: ошибка и её уменьшение

На обучении известен правильный следующий токен. Потеря обычно считается через cross-entropy:L=iyilogpi\mathcal{L} = -\sum_i y_i \log p_i

Поскольку правильный токен один, формула часто упрощается до

L=logptrue\mathcal{L} = -\log p_{\text{true}}

Если модель дала правильному токену вероятность 0,9, то потеря:

log(0.9)0.105-\log(0.9)\approx 0.105

Если 0,01, то:log(0.01)4.605-\log(0.01)\approx 4.605

То есть ошибка резко растёт, когда модель уверенно ошибается.

После этого считается градиент:

θL\nabla_\theta \mathcal{L}

и параметры обновляются, например, по схеме градиентного спуска:

θt+1=θtηθL\theta_{t+1}=\theta_t-\eta \nabla_\theta \mathcal{L}

где η\eta — шаг обучения. На практике используют Adam и его варианты, где обновление сложнее и включает экспоненциальные средние градиентов.

Сколько это стоит вычислительно

Для больших моделей счёт идёт уже не на миллионы, а на квадриллионы операций. Один шаг обучения требует прямого прохода, обратного прохода и обновления весов. Грубое инженерное правило: обучение модели с NN параметрами на DDD токенах требует порядка

6ND6ND

операций с плавающей точкой.

Если взять модель в 70 млрд параметров и обучать её на 1 трлн токенов, получается порядок:

6×70109×1012=4.210236 \times 70\cdot 10^9 \times 10^{12} = 4.2 \cdot 10^{23}

операций. Это уже астрономический объём вычислений.

Память и типы чисел

Параметры хранятся не как абстрактные числа, а в конкретном формате: fp32, fp16, bfloat16, int8, int4.

Если один параметр занимает 2 байта (fp16)(fp16)(fp16), то модель на 7 млрд параметров требует минимум:

7109×214 ГБ7\cdot 10^9 \times 2 \approx 14\ \text{ГБ}

только на веса.

Для 70 млрд параметров:

70109×2140 ГБ70\cdot 10^9 \times 2 \approx 140\ \text{ГБ}

И это ещё без активаций, градиентов, состояний оптимизатора. Поэтому на обучении память может быть в несколько раз выше, чем «вес модели». Отсюда и кластеры из множества GPU.

Почему именно GPU

Главная операция — умножение больших матриц. Например, матрица 8192×40968192 \times 4096 умножается на 4096×40964096 \times 4096. Это десятки и сотни миллиардов операций даже внутри одного слоя. GPU хороши именно потому, что умеют параллельно выполнять огромное число одинаковых арифметических действий. CPU для такой нагрузки слишком «узок».

Вся магия ИИ в итоге сводится к повторению одного и того же паттерна: взять гигантские массивы чисел, перемножить, нормализовать, посчитать вероятности, сравнить с правильным ответом и немного поправить веса. Миллиарды раз.

Итого в одном абзаце

Математически языковая модель — это функция, которая преобразует последовательность токенов в последовательность распределений вероятностей. Технически она состоит из матриц весов размером в миллиарды параметров, операций вида QKTQK^TQKT, softmax, нелинейностей, градиентов и многократных обновлений θ\thetaθ. Физически всё это работает на ускорителях, которые за секунды выполняют колоссальные объёмы линейной алгебры. А текст, который видит пользователь, — лишь финальная интерпретация огромного каскада вычислений над числами.

Могу сразу сделать ещё один кусок в таком же стиле: отдельно про «почему ИИ врёт», отдельно про «что такое нейрон, слой, вес и токен» или отдельно про «сколько электричества и железа это требует».

Как ИИ меняет мир. Текст для новичков

Решил написать другу в колонию строгого режима, как стремительно ИИ меняет мир. А потом понял, что для наглядности эту задачу и надо поручить ИИ. Чтобы друг заценил новые возможности не только по фактам, но и по конкретному заданию.

Задание дал такое.

Распиши для человека, который три года находится вне новостей, что стало возможно с помощью искусственного интеллекта к марту 2026 года на 15000 знаков. Дай без воды, конкретику, цифры. Опиши, как стремительно меняется мир из-за АИ. Опиши это в моём стиле (я тебе недавно давал читать свою книгу, чтобы сделать указатель имён). 

Вот результат за 9 минут в режиме «расширенного размышления» (я ничего не менял):

Вы «выпали» из новостей в марте 2023. Тогда ИИ для большинства был чат-ботом: пишет тексты, иногда помогает с кодом, иногда уверенно врёт. К марту 2026 ИИ стал слоем инфраструктуры — как интернет или смартфон. Дальше — конкретика и цифры. Оговорка: свежесть отдельных показателей на март 2026 в этой сессии не перепроверял; использую публичные данные и анонсы, которые были широко известны к концу лета 2025.

  1. Главный сдвиг: ИИ стал универсальным интерфейсом

В 2023 вы «гуглили». К 2026 всё чаще «задаёте задачу»:

— «Сожми 200 страниц в 1, выдели риски, сделай таблицу».

— «Посмотри договор и найди ловушки для клиента».

— «Разбери переписку, собери таймлайн и список фактов».

— «Открой репозиторий, обнови зависимости, почини тесты».

Это стало возможно потому, что модели получили «руки»: доступ к файлам, браузеру, таблицам, терминалу, API. То есть они не только отвечают, но и делают цепочку действий.

2. Контекст: от «десятков страниц» к «книгам»

В 2023 массовые модели держали контекст уровня «несколько тысяч токенов» (десятки страниц). В 2024–2025 нормой у топ-линеек стали 128k токенов (сотни страниц), а в отдельных системах демонстрировался контекст порядка 1 000 000 токенов («толстая книга» или несколько больших документов подряд).

Практический эффект:

— можно скормить целиком договорный пакет/досье/отчёт и попросить: «найди противоречия», «вытащи сущности (лица, компании, суммы, даты)», «сделай перечень вопросов юристу»;

— можно вести длинный проект, где модель помнит структуру, ограничения и стиль.

Но базовый риск остался: «галлюцинации» (уверенная выдумка) стали реже, но не исчезли. Поэтому правило 2026: всё, что похоже на факт (дата, сумма, цитата, номер закона), — либо с источником, либо перепроверяем.

3. Мультимодальность: текст + картинка + звук в одной голове

К 2024–2025 массовыми стали модели, которые понимают не только текст, но и изображения/скриншоты/таблицы (а иногда и аудио).

Что это меняет в быту и работе:

— вы кидаете скрин с ошибкой/логом/графиком — и получаете разбор «по делу», без гадания;

— фото документа/этикетки/квитанции — и вам делают выжимку, перевод, поиск несостыковок;

— голосовой режим снимает трение: задачу проще сказать, чем набрать.

4. Код: «вторая пара рук» стала стандартом

Самое ощутимое для офисов 2024–2026 — автоматизация кода. Не «ИИ написал продукт», а «ИИ делает большую долю рутины»:

— черновики функций, тесты, документацию;

— рефакторинг и перенос между версиями библиотек;

— объяснение чужого кода и причин падений по логам;

— SQL-запросы и проверка логики.

По заявлениям крупных вендоров, у таких ассистентов были миллионы пользователей уже к 2024–2025, и компании начали закладывать «ИИ-ассистент по умолчанию» как часть рабочего места.

Важный человеческий эффект: порог автоматизации упал. Раньше «маленький скрипт» требовал разработчика. Теперь массу «маленьких скриптов» делает один человек с ИИ за вечер — под контролем и с проверкой.

5. Изображения: качество вышло на уровень коммерческих черновиков

В 2023 генерация картинок была аттракционом. В 2024–2025 это стало инструментом производства:

— обложки, баннеры, иллюстрации, иконки, прототипы интерфейсов делаются за минуты;

— стиль можно стабилизировать (серия материалов в одном «бренд-тоне»);

— правки стали интерактивными: «замени фон», «убери объект», «сохрани композицию».

Дизайн не умер. Умерла дороговизна черновика.

6. Видео: «убедительный фейк» подешевел на порядок

Появились модели «текст→видео» и «картинка→видео», которые генерируют короткие ролики кинематографического качества (в публичных демонстрациях — секунды/десятки секунд, иногда 720p–1080p). Следствие простое: доверие к видео как к доказательству падает.

Две стороны одной монеты:

— маркетинг и образование получили дешёвое «видео-производство» без съёмок;

— мошенники получили дешёвые «обращения», «интервью», «звонки от банка», «голос начальника».

7. Голос в реальном времени: мошенникам выдали усилитель доверия

Синтез голоса к 2024–2025 стал настолько естественным, что короткий фрагмент (10–20 секунд) часто не отличим «на слух» для неподготовленного человека. Плюс появились режимы почти реального времени: система слушает и отвечает с минимальными паузами.

Это меняет скам:

— «родственник попал в беду» теперь масштабируется (и голос похож, и фон «правильный»);

— «служба безопасности» звучит гладко, без акцента, с правильными терминами;

— фишинг уходит из писем в голос и видео.

Если вы делаете расследования, это новый красный флаг: «срочно», «никому», «прямо сейчас», подкреплённые голосом/видео.

8. «Агенты»: модели научились делать цепочки действий

В 2023 модель отвечала текстом. К 2025 стало обычным, что она:

— сама составляет план,

— сама вызывает инструменты (поиск, таблицы, код, почта),

— возвращается с результатом,

— просит уточнения только там, где без них нельзя.

Это уже не «написать абзац», а «закрыть задачу»: подготовить досье, сравнить документы, собрать отчёт из источников, нагенерировать ответы клиентам, обновить базу знаний.

9. Наука: ИИ перестал быть только про тексты

За 2023–2025 ускорились области, где раньше всё упиралось в дорогой перебор:

— биология/химия: предсказание структур и взаимодействий молекул (следующий шаг после прорыва с предсказанием структур белков);

— материаловедение: подбор составов и свойств, оптимизация батарей и катализаторов;

— анализ медицинских изображений: не «замена врачу», а сортировка и подсказка, где смотреть внимательнее.

Это не «лекарство завтра», это сокращение цикла «гипотеза→проверка».

10. Экономика: деньги, железо, электричество

Развернулась гонка вычислений: дата-центры, GPU/TPU, сети, энергопотребление. Причина банальна: качество моделей сильно зависит от объёма вычислений, а спрос оказался массовым.

Эффект для бизнеса:

— компании покупают не «консалтинг на ручной рутине», а «ИИ-лицензии + инфраструктуру»;

— выигрывают поставщики «лопат» (чипы, облака, сети);

— в метриках появляется новое: не «сколько людей», а «сколько задач закрывает один человек с ИИ».

11. Образование и тексты: домашка перестала доказывать знания

К 2026 любой школьник может за минуту получить эссе, перевод, решение, объяснение «почему так». Поэтому контроль знаний смещается:

— в устный разбор, работу в классе, проект,

— в оценку процесса (черновики, версии, ход рассуждений),

— в задания, где нужно связать личный опыт, данные и проверяемые источники.

12. Коммодитизация: мощный ИИ стал «обыденным»

В 2023 «сильный ИИ» был редкой штукой. К 2025 стало нормой:

— иметь доступ к моделям уровня «очень умный стажёр» за небольшие деньги или бесплатно;

— запускать открытые модели локально (семейства порядка 8–70 млрд параметров — это уже не экзотика);

— выбирать из десятков конкурентов (закрытые и открытые).

Когда технология становится коммодити, она просачивается везде — от бухгалтерии до саппорта.

13. Рынок труда: не «уволили всех», а «пересобрали процессы»

Реальность весны 2026:

— падает ценность чистого исполнителя (копирайтинг без экспертизы, саппорт по скрипту, младшая аналитика «перепиши-собери»);

— растёт ценность эксперта, который ставит задачу, проверяет и несёт ответственность;

— появляется «один человек + ИИ», который делает объём маленькой команды.

Поэтому сначала идёт заморозка найма, а потом — тихое уменьшение потребности в младших ролях.

14. Информационная гигиена: «медиа» больше не равно «доказательство»

К 2026:

— видео может быть синтетикой;

— аккаунт может быть полуавтоматическим;

— отзывы и «аналитика» могут быть сгенерированы потоково и грамотно.

В расследованиях возвращается классика: первоисточник, цепочка публикаций, метаданные, независимые подтверждения.

15. Итог

Мир меняется не потому, что ИИ «стал умным». А потому, что он стал дешёвым, встроенным и получил доступ к действиям. Технологическая волна, на которую раньше уходило 10–15 лет, уложилась примерно в три. И темп не падает: новые версии выходят каждые месяцы, читают больше, ошибаются реже, стоят дешевле и делают больше шагов сами.

16. Что стало возможно «прямо руками» — 60 задач, которые реально делают в 2026

Не общие слова, а типовые сценарии, где ИИ экономит время (и где ошибки всё ещё нужно ловить).

Для автора/редактора/расследователя

— Расшифровка аудио/видео в текст, нормализация: имена, даты, термины (дальше вы проверяете).

— Сбор «досье по следам»: из 30 ссылок сделать одну карту — кто, что, когда, где пересекается.

— Вытащить из массива документов сущности: лица, юрлица, домены, кошельки, суммы, реквизиты.

— Сверка версий: что поменяли в «правилах», «договоре», «оферте» между датами.

— Поиск внутренних противоречий: сегодня пишут «лицензия есть», завтра «мы только IT-платформа».

— Генерация вопросов для интервью так, чтобы вытаскивать конкретику («покажите номер», «дайте ссылку на реестр», «кто подписант»).

— Черновик «красных флагов» по лендингу/презентации: обещания доходности, туманные термины, подмена статуса.

— Подготовка таблиц для публикаций: «страна — регулятор — лицензия — реестр — статус — ссылки».

Для юриста и комплаенса

— Быстрый «препроцессинг» договора: выделить риски, нетипичные пункты, односторонние права, штрафы.

— Список «что запросить у контрагента» (учредительные, лицензии, бенефициары, санкционные риски).

— Черновики ответов на претензии/запросы, протоколы разногласий (потом правка человеком).

— Переводы юридического текста с сохранением смысла и терминологии.

— Классификация инцидентов: «это персональные данные? это трансграничная передача? кто оператор?».

Для финансиста/аналитика/AML

— Сверка списков клиентов/контрагентов, дедупликация по «похожим» именам и опечаткам.

— Поиск аномалий в транзакциях: всплески, дробление сумм, «треугольники», нетипичные маршруты.

— Быстрое объяснение отчёта для руководителя: «что важно, что вторично, где риск».

— Генерация SQL/Python для выборок, построение витрин под конкретный вопрос.

— Автоматическая разметка «назначений платежа» по категориям.

Для маркетинга и продаж

— Пакет из 20 вариантов объявления под разные сегменты, без копирайтера на каждом шаге.

— Персонализация писем/лендингов по отрасли и боли клиента (потом факт-чек).

— Анализ звонков/переписки: где теряют клиента, какие возражения повторяются.

— Генерация креативов (картинка+текст) и быстрые A/B-варианты.

Для HR и обучения

— Составление вакансии с адекватными требованиями (и без «единорогов»).

— Подготовка тестовых заданий и критериев оценки.

— Персональный тьютор: объяснить тему 3 способами, дать упражнения, проверить решения.

Для операционки и поддержки

— Автоответы «по базе знаний», но с нормальной человеческой логикой.

— Сводка по тикетам: причины, повторяющиеся баги, «что чинить в первую очередь».

— Автозаполнение форм, подготовка шаблонов документов, сверка реквизитов.

17. Технологические «кирпичики», которые сделали это массовым

Если разложить «ИИ-чудо» на детали, получится прагматичная кухня:

— Векторный поиск (RAG): модель не «помнит всё на свете», ей подсовывают релевантные куски из вашей базы/документов, и она отвечает «с опорой на текст».

— Инструменты (tool use): модель умеет вызывать функции — поиск, калькулятор, таблицы, код, CRM — и подставлять результат в ответ.

— Структурированный вывод: вместо «простыни текста» — JSON/таблица/список сущностей, который можно загрузить в систему.

— Модели «для рассуждения»: отдельные режимы, где система тратит больше вычислений на планирование, зато меньше ошибается на многошаговых задачах.

— Открытые модели + квантизация: часть задач можно делать локально (4-/8-битные версии), иногда даже без облака — важно для приватности.

18. Где ломается привычная интуиция (и почему это меняет мир)

Три ощущения, которые ловят люди, вернувшиеся «после паузы»:

А) Скорость производства контента стала почти бесконечной

Текст, картинки, презентации, «аналитика», комментарии — теперь дешёвые. Поэтому:

— шум растёт быстрее сигнала;

— спам становится более «умным»;

— цена внимания и доверия растёт.

Б) Компетенция «правильно ставить задачу» стала отдельным навыком

В 2023 это называли «промптинг» и смеялись. В 2026 это просто грамотное ТЗ:

— что считаем успехом,

— какие источники допустимы,

— какие ограничения,

— как проверяем.

В) Ошибки стали менее заметными

Раньше бот палился «кривым языком». Теперь язык гладкий, а ошибка прячется в факте: в дате, в сумме, в «не той юрисдикции», в выдуманном реестре. То есть риск сдвинулся из «формы» в «содержание».

19. Мини-показатель темпа: «устаревание навыков» ускорилось

В 2023 вы могли освоить инструмент и жить с ним год. В 2026:

— раз в несколько месяцев меняются интерфейсы и модели,

— появляются новые режимы (голос, видео, агенты),

— обновляется «лучший практический стек».

Это ощущается как постоянная гонка: кто быстрее встроит ИИ в процесс, тот выигрывает не на проценты, а на кратные величины времени.

20. Самое прикладное для вас: как ИИ усилил скам (5 пунктов)

— Фейковые «регуляторы» и «компенсационные фонды»: тексты стали юридически гладкими, с правильными оборотами и «канцеляритом».

— «Возвратчики» и псевдоюристы: массово штампуют письма, жалобы, «решения», имитируя ведомственный стиль.

— Подделка «социального доказательства»: отзывы, комментарии, обсуждения в чатах — потоково и правдоподобно.

— Голосовые атаки: «звонок от сотрудника/родственника» с естественной речью.

— Визуальная подделка: «скрин из банка», «кабинет на сайте», «видео-подтверждение» — теперь делается быстро.

21. Контрмера, которую стоит вынести отдельной строкой

В 2026 доверие не к «красивому тексту», а к проверяемой связке: документ в реестре → ссылка на первоисточник → независимое подтверждение. Всё остальное — шум, даже если выглядит профессионально.

22. «До/после» в цифрах времени (типовые оценки)

Это не «точная статистика по миру», а практическая арифметика по задачам, которые раньше делались руками:

— Сводка по 2–3 часам аудио: было 1–2 дня (расшифровка+выжимка) → стало 30–90 минут (расшифровка+суммаризация+правки).

— Черновик статьи/пресс-релиза: было 4–8 часов → стало 30–60 минут на черновик + 1–2 часа на факт-чек и шлифовку.

— Сверка двух редакций договора на 30–60 страниц: было 2–3 часа → стало 15–40 минут, потому что модель сразу подсвечивает изменения и спорные места.

— Набор типовых ответов саппорта (20–50 шаблонов): было 1–2 дня → стало 2–4 часа.

— Мелкий скрипт/парсер «под задачу»: было «найти разработчика» → стало «сделать самому за вечер» (если вы умеете проверять результат).

23. Почему это необратимо

Потому что выигрыши — не «на 10%», а на порядок по времени там, где раньше сидели на рутине. А когда рутина дешевеет до нуля, её начинают делать везде, всегда и много. Именно поэтому за три года мир так резко «переехал» на ИИ-рельсы.

24. Последняя деталь: ИИ переезжает «ближе к вам»

Часть задач уходит на устройство (телефон/ноутбук): быстрее ответ, меньше данных уходит в облако, проще соблюдать приватность. Но это же усложняет контроль: если генерация стала локальной, фильтры и модерация перестают быть «централизованными».

Если хотите, напишу продолжение в вашем «антискам-формате»: 30 схем, которые ИИ сделал проще (KYC-подделки, фейковые регуляторы, «юристы-возвратчики», голосовые атаки), и 30 контрмер — редакционных и бытовых.

Вот такой ответ. Сам бы я нечто подобное писал два дня, а то и две недели.

Отправил. В сервисе Ф-письмо содрали 656,82 ₽ (7 страниц по 75, скриншот 45, бланк ответа 75, сервисный сбор 11,82).

Задание и начало ответа:

Данный скриншот цензуру не прошёл. Сервис написал: Вложение не прошло цензуру. Письмо доставлено, ожидает ответа. Это означает что Ваше письмо прошло цензуру и вручено адресату вместе с бланком ответа, однако вложение (фото) было отклонено цензором в соответствии с законодательством РФ и служебными инструкциями.

ага, днИИ негодяя

Рекомендательные музыкальные сервисы должны напрячься, так как нейросети стали не только интереснее подбирать, но ещё и лаконично обосновывать свой выбор.

Вот к примеру, какой ответ я получил на запрос «Какая музыка по стилю похожа горячо (точнее холодно) любимый мной альбом «Scoundrel Days» группы A-ha.

И вот такой ответ, в котором есть весьма интересные варианты того, что я ещё не слушал.

ОТВЕТ:

Если любишь именно настроение Scoundrel Days (мрачноватый синти-поп / new wave с мелодией и драмой), то вот куда имеет смысл копать.

В ту же точку 80-х (synth-pop / new wave). Очень близко по духу:

Alphaville – Forever Young (1984) – та же смесь меланхолии и «больших» синтов, много драматических мелодий

Talk Talk – It’s My Life (1984) – более атмосферно и взрослое звучание, но отлично ложится, если тебе нравится «The Swing of Things» и «Soft Rains of April»

Depeche Mode – Black Celebration (1986) – темнее и готичнее, но по настроению к поздневечернему прослушиванию Scoundrel Days очень подходит. Структура песен и синтовые слои похожи по драматизму.

Pet Shop Boys – Actually (1987) – более иронично и танцевально, но продакшн и синты той же эпохи. Хорошо «заходят» после «Cry Wolf».

Erasure – Wonderland (1986) – яркий синти-поп, местами поп-роковый драйв, схожая «пышность» аранжировок.

Чуть более «гитарно», но с тем же вайбом:

Tears for Fears – Songs From the Big Chair (1985) – большие хиты, много драматичных гармоний и богатых аранжировок, как у «Manhattan Skyline».

Duran Duran – Notorious (1986) – глэм-new wave с плотным продакшном, подойдёт, если в Scoundrel Days нравится именно поп-роковая сторона.

The Human League – Dare (1981) – более минималистичный синти-поп, но корни того же жанра, что и у a-ha.

Более «атмосферные» и меланхоличные вещи

Если нравятся именно тёмные, кинематографичные моменты Scoundrel Days:

Bel Canto – Birds of Passage (1990) – норвежцы, атмосферный дрим-синти-поп, меланхоличный, с глубоким саундом.

Talk Talk – The Colour of Spring (1986) – уже на границе с арт-роком, много живых инструментов, но то же ощущение осенней, чуть депрессивной красоты.

Другие альбомы a-ha, которые ближе всего к Scoundrel Days

Вдруг ещё не слышал целиком:

Hunting High and Low (1985) – более лёгкий и попсовый, но продакшн и мелодика очень близки (их часто называют классиками new wave / synth-pop).

Stay on These Roads (1988) – мягче и более балладный, но по настроению продолжает линию Scoundrel Days.

Если напишешь, какие именно треки с Scoundrel Days тебе больше всего заходят (например, «Manhattan Skyline», «I’ve Been Losing You» или «Soft Rains of April»), могу подобрать уже прям точечные песни (не только альбомы), которые максимально похожи на них по настроению и звучанию.

ОТВЕЧАЮ: «Scoundrel Days», «The Swing of Things», «I’ve Been Losing You».

Окей, супер выбор треков, давай подбирать именно «родственных» песен под каждый:

Если нравится «Scoundrel Days» (мрачный, атмосферный синти-поп)

Похожее по настроению и саунду — тёмный, драматичный new wave:

Talk Talk – «Living in Another World» – густые синты, драматичный вокал, чувство надвигающейся бури.

Talk Talk – «Such a Shame» – более ритмичный, но тот же тип мрачного, нервного синти-попа.

New Order – «True Faith» – меланхоличный, но энергичный трек с мощным припевом и классическими синтами 80-х.

Tears for Fears – «Shout» – медленно нарастающая драма, большой припев, похоже по масштабу и настроению.

Alphaville – «Big in Japan» – хмурый, почти холодный синти-поп с очень цепкой мелодией.

Icehouse – «Hey Little Girl» – меланхоличный, атмосферный трек с мягким, но тревожным вайбом.

Если нравится «The Swing of Things» (лиричная, гибкая, чуть «киношная» вещь)

Тут важны мелодия, меланхолия и развернутые аранжировки:

Morten Harket – «I’m the One» – сольник Мортена, который по атмосфере очень близок к поздним a-ha.

Tears for Fears – «Standing on the Corner of the Third World» – длинное, драматичное полотно в духе поздних 80-х, с развитием и наслоением аранжировок.

Talk Talk – «It’s My Life» – более прямой поп, но та же эстетика продуманного new wave.

Bel Canto – «Shimmering, Warm & Bright» (песня с одноимённого альбома) – норвежский дрим-/синти-поп, мягко-меланхоличный и атмосферный.

Bel Canto – «Birds of Passage» – ещё более «туманное» и холодное настроение, хорошо заходит, если любишь осенний вайб The Swing of Things.

Если нравится «I’ve Been Losing You» (более жёсткий, драматичный трек)

Здесь уже ближе к энергичному new wave / синти-року:

Real Life – «Send Me an Angel» – драматичный синти-рок с мощным припевом, отлично ложится рядом с этим треком.

Tears for Fears – «Shout» – опять же, за счёт медленного нагнетания и выкрика в припеве хорошо сочетается.

Icehouse – «Hey Little Girl» – более плавный, но с той же смесью холодного синти-звука и живых эмоций.

Thompson Twins – «In the Name of Love» (любая версия 80-х) – ритмичный, немного нервный синти-трек в духе «я всё теряю, но продолжаю идти».

Men Without Hats – «The Safety Dance» – более бодрый и игривый, но по саунду это та же школа new wave / synth-pop.

Если хочешь, могу собрать тебе плейлист (условный трек-лист) на 20–25 песен, который будет идти примерно так: блок в стиле «Scoundrel Days» → плавный переход к «The Swing of Things» → более жёсткий блок вокруг «I’ve Been Losing You». Скажи только, где слушаешь — Spotify / YouTube Music / Apple Music — и я соберу список в нужном формате.

Вот такие чудеса анализа.

Осторожно! User-agent: Yandex

Ещё один пример, как ИИ мне налажал.

Попросил нейросеть проверить файл robots.txt одного из сайтов. Там были команды Clean-param (для очистки мусора из поисковой выдачи), которые Google не понимает, а внедрил Яндекс. ИИ предложил убрать эти команды под специальную строку для ботов Яндекса:

User-agent: Yandex

Но это грубая ошибка, потому что при наличии такой строки в файле боты Яндекса автоматом переходят к ней и делают только то, что написано там.

Если основные директивы Disallow/Allow прописаны под общей для всех поисковиков строкой

User-agent: * 

то Яндекс их просто не увидит. Поэтому есть два варианта:

Либо не делать строку User-agent: Yandex вообще, ограничиваясь User-agent: * , либо дублировать все правила из общего раздела и в раздел для Яндекса.

Маленький пример, что до конца ИИ доверять нельзя. Может налажать.

ИИ убивает рабочие места в Китае

Про Иран, Израиль и США и так все пишут, поэтому об угрозе другого свойства.

Масштаб автоматизации и внедрения ИИ в КНР растёт. Китай устанавливает больше промышленных роботов в год, чем все остальные страны вместе взятые, лидирует по доставке дронами и тестам беспилотных авто. По оценке Goldman Sachs, к 2040 году около 90% продаваемых в стране машин будут иметь продвинутые функции автопилота.

Однако тем самым Китай рискует усилить напряжение на рынке труда. Власти уже готовят рекомендации по влиянию ИИ на занятость перед публикацией нового пятилетнего плана.

При этом уязвимы не только рабочие на фабриках. Исследование Пекинского университета проанализировало свыше 1 млн онлайн-вакансий и выявило сильное падение найма в таких профессиях, как бухгалтерия, редактура, продажи, программирование. На фоне замедления экономики за 2020–2024 гг. создано около 21 млн чистых новых рабочих мест — менее половины предыдущей пятилетки. Молодёжная безработица держится выше 15% уже 6 месяцев.