Компании неохотно внедряют решения искусственного интеллекта из-за сложности сбалансировать стоимость управления с поведением больших языковых моделей (LLM), таким как галлюцинации, нарушения конфиденциальности данных и вероятность создания вредоносного контента моделями.
Одной из самых сложных задач, стоящих перед внедрением LLM, является определение модели, которая является разрушительной реакцией, но IBM считает, что это может помочь улучшить ситуацию для компаний по всему миру.
Элизабет Дейли, STSM, менеджер по исследованиям Interactive AI Group IBM Research Europe, на мероприятии в Цюрихе подчеркнула, что компания хочет разрабатывать ИИ, которому разработчики смогут доверять. Она отметила: «Легко измерить и количественно оценить клики, но так же легко измерить и количественно определить, что представляет собой вредоносный контент».
Общей политики управления недостаточно для контроля LLM. Поэтому IBM стремится разработать LLMS, чтобы использовать закон, корпоративные нормы и внутреннее управление каждой отдельной компании в качестве механизма контроля, позволяя управлению выходить за рамки корпоративных норм и интегрировать индивидуальную этику и нормы. социальные нормы страны, региона или сектора, в котором он используется.
Эти документы могут предоставить контекст для LLM и могут использоваться для «вознаграждения» LLM за то, что он остается актуальным для своей текущей работы. Это обеспечивает инновационный уровень тонкой настройки при определении того, когда ИИ создает вредный контент, который может нарушить социальные нормы региона, и может даже позволить ИИ определять, можно ли идентифицировать его собственную продукцию как вредную.
Кроме того, IBM скрупулезно разрабатывает свои LLM на основе надежных данных, выявляя, отслеживая и проверяя потенциальные отклонения на каждом уровне, а также внедрила механизмы обнаружения на каждом этапе конвейера. Это резко контрастирует с готовыми базовыми моделями, которые обычно обучаются на предвзятых данных, и даже если эти данные позже будут удалены, предвзятость все равно может проявиться вновь.
Предлагаемый закон ЕС об искусственном интеллекте свяжет управление искусственным интеллектом с намерениями его пользователей, и IBM утверждает, что использование является фундаментальной частью того, как он будет управлять своей моделью, поскольку некоторые пользователи могут использовать ИИ для сводных задач, а другие — для классификации. задания. Дейли утверждает, что использование является «гражданином первого сорта» в модели управления IBM.
Первоисточник: : https://nybreaking.com/category/tech/