Ответы ChatGPT коррелирует с людьми на 95% в 464 моральных тестах
Автор: Анастасия Калинова Дата: 13.05.2023 23:30
Это значит, что люди пока еще нужны, но уже не на долго. Таков страшноватый вывод только что опубликованного большого исследования «Can AI language models replace human participants?» Его авторы поставили интригующий вопрос: если ChatGPT столь успешно сдает всевозможные человеческие экзамены, может ли ИИ бот заменить людей в социальных и психологических экспериментах? Проверив ChatGPT на 464 моральных тестах (кражи, убийства, игра "Ультиматум", эксперимент Милгрэма, выборные коллизии и т.д.), исследователи получили фантастически высокую корреляцию (0.95) социальных и моральных суждений ChatGPT и людей. Похоже, исследователи сами испугались такого результата. “Люди все еще необходимы” – пишут они. “Мы все еще вынуждены погружаться в глубины грязных плотских умов, а не просто опрашивать кремниевые схемы ИИ. Тем не менее, языковые модели могут служить в качестве прокси для человеческих участников во многих экспериментах”. Переводя с научной политкорректности, это значит следующее. 1. Для моделирования ответов людей, люди уже не нужны, ибо ИИ дает почти те же ответы (совпадающие на 95%) 2. Но остаются две проблемы: интерпретация (почему ИИ сделал такой моральный выбор) и «галлюцинации» (склонность ИИ нести правдоподобную пургу). Учитывая, что исследование велось на ChatGPT 3.5, после перехода на 4.0, с обеими проблемами станет полегче. Ну а с переходом на 5.0 (как раз к выборам в 2024) на ответы избирателей, да и вообще людей, в вопросах моральных и социальных оценок можно будут забить. t.me/theworldisnoteasy
|
Ваши комментарии
|
Чат
Опросы
Музыка
Треки
НеForМат
Академия
Целит
Юрпомощь
О сервере
О проекте
Юмор
Работа
О нас
Earn&Play
Для контактов skype:noo.inc



|