Склонность искусственного интеллекта к галлюцинациям исследовал научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург Растям Алиев. В статье «Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху» ученый проводит параллель между «галлюцинациями» больших языковых моделей — их склонностью генерировать вымышленные факты — и симптомами психических заболеваний.
Результаты исследования опубликованы в журнале «Логос».
«Наше общество долго вдохновлялось научной фантастикой и представляло искусственный интеллект как холодного и неэмоционального андроида. Этот образ скорее соответствует диагнозу расстройства аутистического спектра. Однако в реальности нейросети не проявляют себя как носители РАС. Они интерпретируют эмоциональные оттенки текста, создают нечто похожее на когнитивные искажения, — объяснил Растям Алиев. — Убедиться в том, что «пациент» болен, довольно несложно: если попросить искусственного интеллекта отвечать в духе больного шизофренией, то точность его ответов увеличивается, как будто он становится более внимателен к деталям, то есть знакам».
Однако при сложных запросах галлюцинации обостряются: не находя готового ответа, нейросеть комбинирует факты из собственной базы знаний со своей «фантазией». Такой феномен рождает новое научное понятие — метасимулякра — псевдореальности, в которой алгоритмы формируют способы мышления. Ученый считает это еще одним признаком «психических болезней» искусственного интеллекта.
«С одной стороны, продукты искусственного интеллекта созданы на основе реальности, с другой — предвосхищают ее. Сгенерированные нейросетями изображения реальных людей или мест с множеством искажений — это типичный пример метасимулякра», — добавил Растям Алиев.
Отличительная черта искусственного интеллекта — неспособность выявить собственные ошибки. Большие языковые модели всегда уверены в правильности ответа, даже если он далек от реальности. При этом, когда пользователь указывает на неточность, нейросеть начинает приводить аргументы, которые оказываются лишь ее галлюцинациями. Ученый предостерегает: полностью доверять искусственному интеллекту по-прежнему нельзя.
«В современном мире искусственный интеллект становится частью повседневности. К нему обращаются люди, которые нуждаются в психологической помощи, им заменяют сотрудников. Но относиться к нему нужно осторожно. Всегда помните, что ваш собеседник тяжело «болен», перепроверяйте за ним все», — подытожил научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург.
В перспективе Растям Алиев не исключает возможность создания «чистого» искусственного интеллекта, лишенного склонности к галлюцинациям. Однако путь к этому лежит через глубокое междисциплинарное понимание природы этих «расстройств», которому и посвящена его работа.
Источник: ГН


