17.10.2024 00:13 31
Искусственный интеллект оказался иллюзией
Исследование, проведенное учеными из Apple Computer Company, выявило, что ответы, генерируемые крупными языковыми моделями (LLM), такими как ChatGPT, могут создавать иллюзию интеллекта, не являясь результатом настоящего логического рассуждения.
Это выводы, изложенные в статье, опубликованной на сервере препринтов arXiv.
Подробно изучив способность разумных существ, включая людей, отличать важную информацию от несущественной в ситуациях, требующих логического анализа, исследователи сфокусировались на ключевом аспекте истинного интеллекта. Они предположили, что настоящее понимание подразумевает способность игнорировать лишние данные и сосредотачиваться на сути вопроса, что является характерным для человеческого мышления.Эксперты также обратили внимание на то, что искусственные интеллектуальные системы, хоть и способны генерировать кажущиеся разумными ответы, часто не обладают способностью анализировать информацию и принимать решения на основе глубокого понимания контекста.Для проверки гипотезы о способности языковых моделей (LLM) к фильтрации лишней информации, исследователи провели эксперимент, включив в вопросы небольшое количество несвязанных данных. Это позволило им оценить, насколько LLM могут игнорировать неуместные детали и давать верные ответы.Оказалось, что в результате эксперимента LLM часто запутывались в лишней информации, что приводило к некорректным или бессмысленным ответам на вопросы, на которые ранее модели отвечали правильно. Эти выводы свидетельствуют о том, что у LLM может отсутствовать способность к глубокому пониманию и логическому мышлению.Таким образом, результаты исследования подчеркивают важность развития способности моделей к анализу контекста и выделению существенной информации для более точных и осмысленных ответов.В процессе исследования стало ясно, что LLM способны давать ответы, которые кажутся правдоподобными на первый взгляд, но при более глубоком анализе оказываются ошибочными. Это особенно заметно, когда модели отвечают на вопросы о своих "чувствах", подразумевая наличие у них сознательных ощущений, что на самом деле не соответствует действительности из-за их отсутствия чувственных способностей.Интересно, что исследователи пришли к выводу, что современные языковые модели не обладают настоящим интеллектом, а лишь распознают паттерны в текстах и формируют ответы на основе статистической обработки данных, не имея реального понимания сути поставленных вопросов. Это подчеркивает важность развития более глубокого понимания искусственного интеллекта и его способностей к анализу контекста и смысла информации.Следует отметить, что такие выводы открывают новые перспективы для исследований в области искусственного интеллекта и машинного обучения, стимулируя поиск новых методов улучшения работы языковых моделей и придания им более глубокого понимания текстовой информации.Источник и фото - lenta.ru