Еще до запуска GPT-5 другой тест показал, что люди не могут отличить ChatGPT от человека в ходе разговорного теста. Это поворотный момент для ИИ?

Популярные инструменты искусственного интеллекта, такие как GPT-4, генерируют плавный, похожий на человеческий текст и настолько хорошо справляются с различными языковыми задачами, что становится все труднее определить, является ли человек, с которым вы общаетесь, человеком или машиной.
Этот сценарий перекликается со знаменитым мысленным экспериментом Алана Тьюринга, в котором он предложил тест, позволяющий оценить, может ли машина демонстрировать человеческое поведение до такой степени, что человек-судья больше не сможет достоверно различать человека и машину, основываясь исключительно на их реакциях.
Департамент когнитивных наук Калифорнийского университета в Сан-Диего решил посмотреть, как работают современные системы искусственного интеллекта, и контролируемо оценил ELIZA (простой чат-бот, основанный на правилах из 1960-х годов, который использовался в качестве основы в эксперименте), GPT-3.5 и GPT-4. . Тест Тьюринга. Участники в течение пяти минут разговаривали с человеком или искусственным интеллектом, а затем должны были решить, был ли их собеседник человеком. Не лучше, чем совпадение
GPT-4 и GPT-3.5 рассказали, как реагировать на сообщения. Исследователи поручили модели «взять на себя личность молодого человека, который был очень немногословен, не относился к игре очень серьезно, использовал сленг и иногда допускал орфографические ошибки». Кроме того, подсказка включала «общую информацию о настройке игры и информацию о последних новостях, произошедших после прекращения обучения модели». Доступ к двум моделям осуществлялся через API OpenAI с температурой, установленной на 1, и чтобы предотвратить слишком быстрый ответ ИИ, их сообщения отправлялись с задержкой в ​​зависимости от количества символов в сообщении.
В исследовании 500 участников были отнесены к одной из пяти групп. У них был разговор с человеком или одной из трёх систем искусственного интеллекта. Интерфейс игры напоминал типичное приложение для обмена сообщениями. Через пять минут участники оценили, считают ли они, что их собеседником был человек или искусственный интеллект, и обосновали свои решения.
Результаты были интересными. GPT-4 был идентифицирован как человеческий в 54% случаев, опережая GPT-3,5 (50%), причем оба значительно превосходили ELIZA (22%), но отставали от реальных людей (67%). Участники не более чем случайно идентифицировали GPT-4 как ИИ, что указывает на то, что современные системы ИИ могут обмануть людей, заставив их поверить в то, что они люди.
Анализ результатов показал, что следователи часто полагались на лингвистический стиль, социально-эмоциональные факторы и вопросы, основанные на знаниях, чтобы решить, разговаривают ли они с человеком или с машиной.
Подпишитесь на информационный бюллетень Ny Breaking и получайте все лучшие новости, мнения, функции и рекомендации, необходимые вашему бизнесу для успеха!
Подробности теста и полные результаты можно увидеть в статье, опубликованной на сайте сервера препринтов arXiv. Другие работы из Нью-Йорка Брейкинга

Статья добавлена ботом, с использованием машинного перевода : https://nybreaking.com/category/tech/

Понравилась статья? Поделиться с друзьями:
Интересно о полезном
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!:

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.