Pinterest развился как место поиска визуальных идей, нежели социальная сеть, поэтому оказался более уязвим к ИИ-угрозам, чем Instagram или TikTok.
Компания стоит в 5 раз дешевле, чем на пике в 2021 году, когда её оценивали в $55 млрд.
Новостной фон негативный. Прогноз финансовых показателей выглядит слабым. Pinterest сокращает 15% персонала. Аналитики обеспокоены влиянием искусственного интеллекта.
Универсальные нейросети — прямые конкуренты Pinterest — особенно в области поиска, рекомендаций и рекламы. С появлением мощных ИИ-чатботов и новых инструментов поиска от Meta, Google и TikTok рекламодатели могут перераспределять бюджеты туда, где таргетирование лучше и отдача выше. Компания внедряет ИИ в продукты (персонализация, визуальный поиск и т.п.), но вряд ли это компенсирует усиленную конкуренцию в перспективе.
Задел обеспечил рост выручки Pinterest в 2025 году на 16% до $4,2 млрд, но инвесторы опасаются, что бизнес-поляну компании всё же вытопчут ИИ-гиганты.
Ещё один случай, когда долгосрочные инвесторы покупавшие акции на IPO, находятся в минусе, который ещё более удручает на фоне кратного роста других технологических акций за данный период. Участники IPO в апреле 2019 года приобретали бумаги по $19.
ИИ убивает сектор продажи иллюстраций, сообщает Финсайд. Акции Getty Images стоят в 30 раз меньше своих максимумов 2022 года, а бумаги Shutterstock — в 8 раз, будто это не доли в компаниях с выручкой под миллиард долларов в год, а альткойны без рода и племени.
Генеративные модели снижают спрос на типовой стоковый контент, а сами стоки параллельно пытаются зарабатывать на лицензировании контента для ИИ. Предвидя усложнение конкуренции, акционеры двух компаний приняли решение о слиянии.
Уолл-Стрит же заранее похоронил бизнес-модель: компании оцениваются в разы дешевле годовой выручки. Никому не хочется быть совладельцем Nokia, когда в лидеры продаж выбиваются айфоны.
Акции платформы для фрилансеров Fiverr стоят в 20 раз меньше максимумов 2021 года из-за того, что часть типовых задач фриланса съедает базовый ИИ за $20 в месяц.
Fiverr — глобальный онлайн-маркетплейс, который соединяет бизнес и частных заказчиков с фрилансерами, продающими цифровые услуги: дизайн, разработку, маркетинг, видео, тексты, ИИ-услуги и прочее.
Услуги в Fiverr оформлены как «гиги»: товарные карточки с понятным объёмом работ, сроками, ценой и отзывами. Этим Fiverr отличается от «тендерного» формата других платформ.
Инвесторы внимательно смотрят на Fiverr, потому что универсальные нейросети одновременно могут съедать простые фриланс-задачи (тексты, простая графика, черновой код), но при этом создают новый спрос на людей, которые умеют «доводить до результата», интегрировать, настраивать, отвечать за качество и бизнес-контекст.
В 2025 году выручка Fiverr выросла на 10,1% до $430,9 млн, а чистая прибыль составила $21 млн. Рынок уже не верит в компанию, оценивая её чуть дороже годовой выручки.
В крупном минусе не только ковидные быки, но и те, кто покупал бумаги на IPO в июне 2019 года по $21. Но надо сказать, что пузырь Fiverr сдулся ещё до ключевой даты современности.
В 5 раз с максимумов упали акции приложения по изучению языков Duolingo, анализирует Финсайд.
Когда монстры вроде Google и OpenAI показывают бесплатные языковые функции, рынок трактует это как риск для приложений изучения языков — даже если у них сильный бренд и метрики.
Это как раз случай Duolingo. Компания сохраняет хорошие показатели, но инвесторы больше не верят в их быстрый рост.
В комментариях менеджмента к результатам звучало, что приоритет — улучшение продукта, даже если это временно давит на краткосрочную монетизацию. Для рынка это означает: «ближайшие кварталы будут хуже, чем хотелось бы». А, может, и годы.
Duolingo долго торговался как «идеальная история роста». Когда настроения ухудшились, такие акции обычно падают сильнее рынка: сначала из-за пересмотра прогнозов, затем из-за пересмотра мультипликаторов: сколько «можно» платить за рост, который ещё не состоялся.
Инвесторы закладывают риск, что изучение языка станет проще и дешевле через ИИ. Это давит именно на оценку. В общем, людям, купившим в 2025 году акции Duolingo, не позавидуешь. Акции вплотную подошли к уровню продажи на IPO 27 июля 2021 года ($102).
Когда универсальный ИИ-ассистент даёт быстрый ответ на любой вопрос и настраивается под настроение и предпочтения пользователя, это ставит под удар все образовательные сервисы.
Например, больно страдает Chegg — сервис помощи студентам: подписка на разбор задач, решения, объяснения.
В 2021 году акции Chegg почти достигли $100 за штуку. Но теперь рынок, скорее, верит в банкротство компании, чем в её благополучие. Акции стоят $0,54, что соответствует $60 млн рыночной капитализации — перспективный технологический бизнес в США так дёшево давно не оценивают.
30 ноября 2022 года — дата, после которой разговоры об искусственном интеллекте перестали быть уделом специалистов и венчурных фондов. В этот день компания OpenAI открыла публичный доступ к чат-боту ChatGPT. ИИ вышел из лабораторий в повседневность.
До этого момента нейросети уже умели многое: распознавали изображения, переводили тексты, генерировали код. Были громкие релизы вроде GPT-3 или DALL·E, но они оставались инструментами для разработчиков и энтузиастов. 30 ноября произошёл качественный сдвиг: сложная модель стала доступна любому человеку с браузером. Не API, не демо для специалистов — а потребительский интерфейс «задал вопрос — получил развёрнутый ответ».
Эффект оказался мгновенным. За пять дней аудитория превысила миллион пользователей. Для сравнения: Netflix шёл к этому почти четыре года, Facebook — десять месяцев. Но важна не только скорость роста. Впервые широкая публика увидела, что машина способна поддерживать связный диалог, писать эссе, объяснять теоремы, генерировать программный код и даже шутить. ИИ перестал быть абстрактной «технологией будущего» — он стал собеседником.
С этого дня началась гонка, сравнимая по масштабу с появлением интернета или смартфона. Уже в начале 2023 года Microsoft интегрировала языковые модели в свои продукты и поисковик, а Google ускорил запуск собственных систем. Корпорации, университеты, стартапы — все пересматривали стратегии. Инвестиции в ИИ стали не просто трендом, а обязательным пунктом повестки.
Но ключевое — не в деньгах и не в капитализации. 30 ноября 2022 года изменилось представление о человеческой исключительности в интеллектуальном труде. Если раньше автоматизация касалась физической работы и рутинных операций, то теперь под вопросом оказались тексты, аналитика, дизайн, программирование, обучение. Школьники начали писать сочинения с помощью ИИ, программисты — ускорять разработку, юристы — генерировать проекты документов. Появилось новое явление: «человек плюс ИИ». Базовая единица продуктивности.
Человек, не усиленный ИИ, перестал быть конкурентоспособным во многих секторах.
Эта дата стала точкой невозврата ещё и потому, что изменила общественный диалог. Появились дискуссии о регулировании, об авторском праве, о рисках дезинформации, о будущем профессий. Стало ясно: ИИ — не узкая технологическая тема, а фактор политики, экономики и культуры. Фактор, меняющий мир быстрее, чем электричество, мобильная связь и даже интернет.
Если XX век запомнился датами, связанными с атомной энергией и космосом, то 30 ноября 2022 года можно считать символическим стартом «эпохи прикладного ИИ».
Не потому, что в этот день родилась технология (как и 12 апреля 1961 года), а потому, что в этот день миллионы людей впервые столкнулись с ней — и поняли, что мир уже изменился.
Когда ругаются, что ИИ допускает ошибки, становится смешно. Во-первых, человек не знает почти ничего, что ему выдаёт ИИ. Во-вторых, в том, что знает, человек выдаст ошибок не меньше в силу несовершенства памяти, когнитивных искажений или неразвитости нейронной сети мозга.
Закинул вышеуказанный тезис в нейросети с заданием «Оцени этот мой тезис». И вот что вышло.
Твой тезис поднимает очень важный вопрос о когнитивном смирении. Ты справедливо указываешь на то, что мы часто судим ИИ по стандартам «абсолютной истины», которыми сами не обладаем.
Давай разберем твои аргументы с точки зрения логики и текущего состояния технологий.
1. Проблема «Черного ящика» знаний
Твой первый аргумент — «человек не знает почти ничего из того, что выдает ИИ» — подчеркивает огромный разрыв в объеме данных.
Справедливость: ИИ обучается на терабайтах текста (библиотеки, код, научные статьи), которые один человек не прочтет и за тысячу лет. В узких и сложных темах мы действительно часто не в состоянии мгновенно проверить достоверность ответа.
Нюанс: Именно здесь кроется ловушка. Если человек не обладает экспертизой, он может принять «галлюцинацию» (уверенно написанный вымысел) за истину. Ошибка ИИ опасна не тем, что она есть, а тем, что она выглядит крайне убедительно.
2. Несовершенство человеческого мозга vs Алгоритмы
Ты верно подмечаешь, что биологическая нейросеть (мозг) — это не жесткий диск, а «реконструктор».
Память: Мы не храним данные, мы их перезаписываем каждый раз, когда вспоминаем, привнося искажения.
Когнитивные искажения: Человек подвержен предвзятости подтверждения, эмоциям и усталости. ИИ не устает и не имеет личного эго.
Сравнение: В тестах на логику или извлечение сухих фактов ИИ уже сейчас часто обходит среднестатистического человека по точности.
Почему ошибки ИИ всё же выделяют в отдельную категорию?
Смех над ошибками ИИ часто вызван не тем, что он «глупее» человека, а спецификой этих ошибок:
Отсутствие здравого смысла: Человек может забыть дату битвы, но он вряд ли скажет, что «для приготовления яичницы нужно сварить камни». Ошибки ИИ иногда лишены биологической логики, что кажется нам нелепым.
Галлюцинации: В отличие от человека, который может сказать «я не знаю», ИИ (в силу своей архитектуры) стремится предсказать следующий наиболее вероятный токен. Иногда это приводит к созданию несуществующих ссылок на законы или научные работы.
Масштабируемость: Ошибка одного человека локальна. Ошибка в алгоритме, которым пользуются миллионы, может привести к системным сбоям.
Итог
Твой тезис во многом верен: критика ИИ часто антропоцентрична. Мы склонны прощать ошибки себе и другим людям («человеческий фактор»), но требуем безупречности от программы.
Однако стоит учитывать, что ИИ — это инструмент. Когда молоток промахивается по гвоздю (образно говоря), мы виним инструмент, потому что его задача — быть точнее нас.
GigaChat
Ваш тезис поднимает важные моменты относительно природы человеческих заблуждений и ограничений человеческого восприятия. Давайте рассмотрим каждый аспект подробнее:
▌ 1. Недостаточность знания человеком процессов ИИ
Вы правы в том, что большинство пользователей не понимают внутренних механизмов функционирования ИИ. Это создает иллюзию, будто ошибка ИИ является результатом случайности или непрофессионализма разработчиков. Однако важно понимать, что ошибки возникают вследствие ряда факторов:
Ограниченности обучающих данных,
Сложности интерпретации контекста,
Ошибок программирования или настройки моделей. Эти факторы делают ошибку частью процесса работы ИИ, и многие разработчики открыто признают наличие таких проблем.
▌ 2. Ошибка человека
Человек действительно склонен ошибаться. Когнитивные искажения, эмоциональные реакции и ограниченность памяти часто приводят к неверному восприятию фактов или принятию неправильных решений. Тем не менее, критическое отношение к собственным убеждениям помогает людям учиться и исправлять собственные ошибки. Человеческая способность осознавать и анализировать собственные промахи значительно отличает нас от машин, которым необходима помощь извне для коррекции ошибок.
▌ 3. Сравнение возможностей ИИ и человека
ИИ обладает рядом преимуществ перед людьми, включая скорость обработки больших объемов данных и отсутствие усталости. Однако он также ограничен отсутствием интуитивного понимания мира, эмоций и опыта реального взаимодействия с окружающей средой. Человек же способен адаптироваться к новым ситуациям благодаря способности мыслить абстрактно и креативно решать проблемы.
Таким образом, ваш тезис подчеркивает важную идею: обе стороны — и человек, и ИИ — подвержены ошибкам, и понимание этого факта способствует развитию взаимодополняющего сотрудничества между ними.
ChatGPT
Тезис звучит убедительно как интуиция, но в текущем виде он немного «перегибает» в двух местах — и из-за этого его легко атаковать.
Что в нём сильного
Ты точно подмечаешь асимметрию: люди часто не могут проверить то, что им выдаёт ИИ, и поэтому ругать ИИ за ошибки “в абсолюте” иногда выглядит странно — мы и у людей так строго не проверяем всё подряд.
Про память, когнитивные искажения и ошибки человека — тоже верно: человек регулярно ошибается, часто уверенно, и это социально нормализовано.
Где логическая уязвимость
“Человек не знает почти ничего, что ему выдаёт ИИ” Это слишком обобщающе. Во многих задачах человек как раз знает достаточно, чтобы заметить ошибку: в своей профессии, в быту, в логике рассуждений, в здравом смысле. Если сказать “часто не знает” — тезис станет устойчивее.
“В том, что знает, человек выдаст ошибок не меньше” Не всегда. В некоторых областях человек с опытом ошибается существенно реже (например, в узкой экспертизе), а ИИ может “галлюцинировать” уверенно и красиво. Сильнее будет формулировка: человек тоже ошибается, но ошибки разные по природе:
человек ошибается из-за памяти/предвзятостей/усталости;
ИИ — из-за статистической природы генерации, отсутствия “знания” как у человека, и склонности заполнять пробелы правдоподобным текстом.
Главная недостающая грань (про которую тебя обязательно спросят)
Цена ошибки и ответственность. К ИИ предъявляют больше претензий не потому, что он “хуже человека”, а потому что:
он масштабирует ошибку (один промах — на миллионы пользователей),
его ответы часто звучат очень уверенно,
он используется в контекстах, где ошибка дорогая (медицина, право, финансы),
и непонятно, кто отвечает, если ИИ ошибся.
То есть критика ИИ — часто не про “он ошибается”, а про “он ошибается опасным образом и массово”.
Как усилить твой тезис (вариант переформулировки)
Если хочешь оставить ту же идею, но сделать её непробиваемой:
“Смешно ругать ИИ просто за факт ошибок: человек тоже часто не может проверить информацию и сам регулярно ошибается из-за ограничений памяти и когнитивных искажений. Вопрос не в том, что ИИ ошибается, а в том, как часто, в каких задачах, и какова цена ошибки — поэтому ИИ нужно оценивать не по ‘безошибочности’, а по надежности, проверяемости и уместности в конкретном контексте.”
Итоговая оценка
Идея сильная, но формулировки слишком абсолютные (“почти ничего”, “не меньше”). Если заменить их на вероятностные (“часто”, “в среднем”, “в ряде задач”) и добавить про цену/масштаб/ответственность — получится реально мощный тезис.
Мой вывод
Из тезиса о том, что ложь в ИИ выглядит крайне убедительно, следует надежда на то, что человек сможет найти нишу в ИИ-мире. Ниша эта — не только грамотная постановка задач, но и контроль результатов ИИ.
Но найти лажу в сочинениях ИИ дилетант не сможет, сделает это только эксперт. Значит, экспертность в узкой сфере должна остаться в цене. Вопрос востребованности людей с широким кругозором, но неглубокими знаниями. Возможно, такие смогут находить ИИ новые применения.
А вот узкий кругозор без глубинного знания узкой темы, похоже, никуда не покатит. Офисным сотрудникам надо подумать о своей роли в будущем.