Как местный скептик (или, может, циник?) я уже писал о том, насколько «неинтеллектуален» искусственный интеллект на самом деле. Но поскольку шумиха вокруг него и, соответственно, капитализация гигантских технологических компаний только выросли с тех пор, думаю, место для еще одной порции негатива найдется. Тем более что, похоже, он буквально разрушает интернет в том виде, в каком мы его знали.
Вы, вероятно, заметили, что ярлык «ИИ» сейчас лепят на все подряд. Вероятно, потому что, как и во времена безумия вокруг web3 и блокчейна, участие в общем хайпе помогает привлечь внимание к своему продукту или услуге. Особенно раздражает то, что «интеллектуальная» часть искусственного интеллекта до сих пор не достигнута. ИИ не рассуждает и не понимает. Иногда может казаться, что он это делает — но на деле мы все еще имеем дело с алгоритмами и математикой, которым скармливают огромные объемы данных, чтобы они рассчитали наиболее вероятный ответ.
Технологический прогресс позволил нам при достаточной вычислительной мощности, памяти и хранилищах запускать огромные модели, способные «переваривать» колоссальные объемы данных, созданные людьми (часто защищенные авторским правом), и на их основе вычислять наиболее вероятные ответы. Когда вы задаете ChatGPT вопрос, он уверенно выдает ответ, который, скорее всего, в основном правильный, но может быть и неверным. За кулисами он на самом деле генерирует множество возможных ответов, ранжирует их от наиболее вероятного к наименее и показывает вам тот, что оказался № 1 в его внутреннем списке. Но вы этого не видите — а создатели чат-ботов, видимо, решили, что никто бы ими не пользовался, если бы они начинали каждое сообщение со слов «возможно» или «наверное».
Лично я давно усвоил, что не стоит доверять тем, кто никогда не говорит «я не знаю». Потому что иногда мы действительно не знаем — и ИИ тоже.

То же самое относится к «генеративному» ИИ, который умеет создавать визуально впечатляющие изображения или видео. Он не рисует по вдохновению или воображению — он вычисляет, что вы хотите увидеть, опираясь на терабайты изображений, на которых был обучен, и выдает наиболее правдоподобный результат. Уже показано, что предсказать, как будет выглядеть сгенерированная картинка, не так уж сложно. Но для непосвященного это может выглядеть как колдовство и быть действительно полезным — однако это не творчество. И тут возникают серьезные вопросы о морали обучения моделей на работах реальных людей ради того, чтобы потом заменить этих людей в будущем.
Фактически, крупные технологические корпорации давно решили, что будут просто брать весь этот человеческий контент бесплатно, ведь даже если потом придется заплатить юристам, выгода от лидерства в гонке ИИ это с лихвой перекроет. К тому же, они прекрасно понимают, что миллионы мелких авторов (цифровых и аналоговых), чьи работы были вброшены в эту «мясорубку данных», не в состоянии начать судебную тяжбу с компанией из верхушки S&P 500. Крупные студии, между тем, должны «отказаться» от участия в обучении моделей, вместо того чтобы «согласиться». Это как если бы вас грабили на улице по закону — если вы заранее не заполнили форму отказа.
А если уж говорить о ценах на акции — аналитики уже отмечали, что в индустрии ИИ идет поразительный объем «круговых» трат между крупнейшими игроками, искусственно раздувающими показатели выручки. Грубо говоря: вы платите другу 10 долларов, чтобы он выкопал яму, а он платит вам те же 10, чтобы вы ее закопали. На бумаге вы сгенерировали 20 долларов выручки — но никакой ценности не создали.
В похожем духе компании вроде Nvidia, OpenAI, Oracle, AMD и другие гоняют между собой сотни миллиардов, будто играют в крупнейшую в истории партию «Монополии».








