Модели ИИ никогда не перестают восхищать нас своими способностями и ограничениями, демонстрируя странное поведение, которое проливает свет на их основную форму. Одно примечательное наблюдение заключается в том, что эти алгоритмы, похоже, отдают предпочтение конкретным числам, подобно тому, как люди выбирают числа. Это не просто странность поверхностного уровня; он предоставляет информацию о том, как функционируют эти модели.
У людей есть хорошо задокументированная проблема со случайностью: они часто слишком задумываются или неверно истолковывают, что она на самом деле означает. Например, когда человека просят предсказать результат 100 подбрасываний монеты, его прогнозы обычно не включают в себя полосы «орел» или «решка», характерные для реальных случайных последовательностей. Аналогичным образом, выбирая число от 0 до 100, люди склонны предпочитать более «нейтральные» варианты, например те, которые оканчиваются на 7, а не крайние или визуально яркие числа.
Неожиданно системы ИИ демонстрируют ту же предвзятость в выборе чисел, что и люди. В неофициальном эксперименте, проведенном инженерами Gramener, многим основным языковым моделям (чат-ботам LLM) было предложено выбрать число от 0 до 100. Окончательные результаты ни в коем случае не были случайными. . Даже когда настройки были изменены для повышения непредсказуемости и случайности, каждая модель постоянно отдавала предпочтение определенным числам. Например, модель GPT-3.5 Turbo от OpenAI часто выбирала 47, Claude 3 Haiku из Anthropic выбрал 42, а Gemini выбрал 72. Аналогично, у других моделей были свои собственные предпочтения по числам.
Кроме того, эти модели избегали низких и высоких чисел и редко выбирали двузначные или круглые цифры, если только настройка температуры не была максимальной, что привело к менее распространенному выбору со стороны Gemini.
Это происходит не из-за сознательности или знания случайности, а скорее из-за отражения обучающих данных моделей. Без какой-либо реальной логики эти системы выдают ответы, основываясь только на том, как часто им передаются данные. Число с меньшей вероятностью будет выбрано моделью, если оно не часто встречается в качестве ответа в обучающем наборе.
Это имитация человеческих моделей выбора в, казалось бы, простых задачах, таких как выбор чисел, иллюстрирует, как модели ИИ отражают предубеждения и поведение, присутствующие в их обучении. данных, что часто приводит к антропоморфным интерпретациям их действий.
Несмотря на то, что эти модели кажутся «думающими» как люди, им не хватает понимания и сознания; они работают только с данными, которые обрабатывают, раскрывая как потенциал, так и ограничения существующих технологий искусственного интеллекта.