Поиск ChatGPT не может найти настоящие новости даже с помощью руки издателя

OpenAI с гордостью представила поиск ChatGPT в октябре в качестве следующего этапа для поисковых систем. Компания хвасталась, что новая функция объединила разговорные навыки ChatGPT с лучшими инструментами веб-поиска, предлагая информацию в реальном времени в более полезной форме, чем любой список ссылок. Согласно недавнему заключению Центра цифровой журналистики Тоу Колумбийского университета, это празднование, возможно, было преждевременным. Отчет показывает, что ChatGPT имеет несколько небрежное отношение к точности, атрибуции и базовой реальности при поиске новостных историй.
Что особенно поразительно, так это то, что проблемы возникают независимо от того, блокирует ли издание веб-сканеры OpenAI или имеет официальное лицензионное соглашение с OpenAI на свой контент. Исследование проверило 200 цитат из 20 публикаций и попросило ChatGPT указать их источник. Результаты были везде.
Иногда чат-бот был прав. В других случаях цитаты приписывались неправильному источнику или источник был просто выдуман. Партнеры OpenAI, включая The Wall Street Journal, Atlantic Ocean и публикации Axel Springer и Meredith, иногда добивались лучших результатов, но не с какой-либо последовательностью.
Ставка на точность при запросе новостей ChatGPT — это не то, чего хотят OpenAI или ее партнеры. Сделки были объявлены как способ OpenAI поддержать журналистику и повысить точность ChatGPT. Когда ChatGPT обратился к Politicspublished от Axel Springer, для цитат оратор часто не был тем, кто цитировал чат-бота. Проигрышные новости ИИ
Короткий ответ на проблему — это просто метод ChatGPT по поиску и обработке информации. Веб-сканеры, которые ChatGPT использует для доступа к данным, могут работать идеально, но модель ИИ, лежащая в основе ChatGPT, все равно может ошибаться и галлюцинировать. Лицензированный доступ к контенту не меняет этого основного факта.
Конечно, если издание блокирует веб-сканеры, ChatGPT может точно перейти от новостного гонщика к волку в овечьей шкуре. Издания, которые используют файлы robots.txt, чтобы держать ChatGPT подальше от своего контента, такие как The New York Times, позволяют ИИ тащиться дальше и придумывать источники, вместо того, чтобы говорить, что у него нет ответа для вас. Более трети ответов в отчете соответствуют этому описанию. Это больше, чем просто небольшое решение для шифрования. Хуже того, если бы ChatGPT не смог получить доступ к законным источникам, он бы обратился к местам, где тот же контент был опубликован без разрешения, увековечивая плагиат.
В конечном счете, неправильная атрибуция ИИ не такая большая проблема, как последствия для журналистики и инструментов ИИ, таких как ChatGPT. OpenAI хочет, чтобы поиск ChatGPT был местом, куда люди обращаются за быстрыми, надежными ответами, которые правильно связаны и процитированы. Невыполнение этого требования подорвет доверие как к ИИ, так и к журналистике, которая его воплощает. Для партнеров OpenAI доход от их лицензионного соглашения может не стоить потерянного трафика из-за ненадежных ссылок и цитат. Подпишитесь, чтобы первыми узнать о непревзойденных предложениях Черной пятницы на топовые технологии и получить весь ваш любимый контент Ny Breaking.
Так что, хотя поиск ChatGPT может быть благом для многих видов деятельности, вам следует проверить эти ссылки, если вы хотите убедиться, что ИИ не галлюцинирует ответы из Интернета. Вам также может понравиться…

Статья добавлена ботом, с использованием машинного перевода : https://nybreaking.com/category/tech/

Понравилась статья? Поделиться с друзьями:
Интересно о полезном
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!:

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.