Управление облачными рисками в условиях растущей угрозы ИИ

Искусственный интеллект и облачные вычисления могут показаться сложной комбинацией, но эти две технологии уже давно присутствуют в нашей повседневной жизни. Когда мы просим Alexa установить 15-минутный таймер для приготовления пищи, используем Google Maps, чтобы найти новый маршрут вокруг пробки или, совсем недавно, просим ChatGPT написать нам хитрую формулу Excel, мы зависим от плавного взаимодействия между AI и облако. Но ИИ также интегрируется в облако гораздо более продвинутыми и критически важными способами, что несет в себе как серьезные преимущества, так и риски.
Ускорение обработки данных: наша растущая зависимость от искусственного интеллекта и облака
Сегодня организации в таких отраслях, как электронная коммерция, банковское дело и производство, используют комбинацию облачных технологий искусственного интеллекта для автоматизации собственных производственных процессов и расшифровки наборов конфиденциальных данных. Крупные технологические игроки, такие как Google, используют его для улучшения бизнес-операций посредством прогнозного анализа и обнаружения аномалий. Даже здравоохранение становится зависимым от искусственного интеллекта и облака. Исследователи используют ИИ для поиска миллионов облачных фармацевтических товаров, чтобы выявить закономерности и выявить революционные биомедицинские взаимосвязи, которые могут привести к открытию жизненно важных лекарств.
Проще говоря, облачные вычисления на базе искусственного интеллекта проникают во многие аспекты бизнеса и жизни. Но по мере того, как растет наша зависимость от него, а также увеличивается его доступность и мощь, растут и методы, которые киберпреступники используют для злоупотребления им. Технология искусственного интеллекта дает хакерам новые способы – от изощренных фишинговых писем до дипфейковых видео – чтобы застать нас врасплох. Давайте посмотрим на эти растущие риски и на то, как ваш бизнес может защитить себя. Рави Биндра
Навигация по социальным ссылкам
ИИ выводит картину угроз на новый уровень
По оценкам, к 2025 году ущерб от киберпреступности достигнет примерно 10,5 триллионов долларов в год, что на 300 процентов больше, чем в 2015 году. Национальный центр кибербезопасности уже предупредил, что вредоносное использование ИИ меняет ландшафт угроз, который приведет к 2024 году. к 2023 году объем безопасности и управления рисками достигнет $188,1 млрд.
Этот новый, очень сложный ландшафт угроз во многом обусловлен сверхсовременными возможностями искусственного интеллекта. Наиболее очевидными вредоносными тактиками являются те, которые полагаются на генерацию текста для атак социальной инженерии. Но это выходит за рамки фишинга: речь идет о потенциальной угрозе быстрого распространения вредоносных технологий. Злоумышленники могут использовать ИИ для выявления уязвимостей облака и создания вредоносного ПО для их эксплуатации. Он может обнаруживать слабые места и использовать недостатки безопасности гораздо быстрее, чем могут отреагировать человеческие ИТ-команды. Он может даже создавать сложное вредоносное ПО, которое учится избегать обнаружения, что делает борьбу с ним практически невозможным для традиционных антивирусных программ. Обучение и инфраструктура должны идти в ногу с развитием событий
Учитывая эти риски, основной обязанностью бизнес-лидеров в 2024 году будет обучение сотрудников тому, как распознавать «явные признаки» атаки ИИ. Новейшие знания о новейших тактиках будут иметь большое значение для предотвращения незаметного проникновения вредоносных программ и программ-вымогателей.
Но обучение – это только часть головоломки. Компаниям также необходимо обеспечить безопасность и простоту своих облачных операций. Шаги включают в себя:
Подпишитесь на информационный бюллетень Ny Breaking и получайте все лучшие новости, мнения, функции и рекомендации, необходимые вашему бизнесу для успеха!
1. Внедрить строгий контроль доступа, соответствующий принципу минимальных привилегий. Это означает, что всем пользователям или приложениям должен быть предоставлен минимальный уровень доступа, который им необходим, при этом на каждом уровне требуется многофакторная аутентификация.
2. Шифрование всех данных при хранении и передаче. Это позволит неавторизованным лицам получить доступ и расшифровать конфиденциальную информацию. Между тем ключи шифрования, с помощью которых расшифровываются данные, необходимо регулярно менять и надежно хранить.
3. Регулярно оценивайте уязвимости. Такие инструменты, как тестирование на проникновение, позволяют компаниям моделировать реальные атаки, выявляя слабые места в их облачной инфраструктуре, которые затем можно усилить.
4. Примите облачную стратегию. Облачные компании должны гарантировать, что они используют только методы и технологии безопасности, специально разработанные для облачных сред, устраняя любые устаревшие пробелы и встраивая безопасность в приложения с нуля. Сражайтесь с ИИ с помощью ИИ
Однако укрепления облачной инфраструктуры уже недостаточно для того, чтобы просто защитить ее данные. Поскольку киберпреступники все чаще используют ИИ для различных векторов атак, компании должны делать то же самое. Используя ИИ для обнаружения угроз и выявления «возмутительного» поведения и моделей, компании могут оставаться на шаг впереди преступников и лучше защищать периметр своей безопасности.
ИИ может особенно помочь защитить данные в гибридных облачных средах. Он может обнаруживать теневые данные и обнаруживать аномалии в доступе к данным, немедленно предупреждая ИТ-команды о потенциальных угрозах.. ИИ может анализировать и проверять попытки входа в систему с помощью поведенческих данных, предоставляя доступ пользователям, которые ведут себя нормально, и отмечая или даже блокируя тех, кто ведет себя ненормально или подозрительно.
ИИ может даже выполнять оценку угроз в режиме реального времени и оценку рисков после действий. Затем ИТ-руководители смогут настроить автоматическое реагирование на инциденты, которые ускорят предотвращение и расследование атак и обеспечат надежную кибербезопасность. Кроме того, ИИ также играет роль в автоматизации многих стандартных и трудоемких процессов обеспечения безопасности, снижая риск человеческих ошибок и повышая эффективность работы персонала. Получите полное доверие к своему облаку
Недавно Великобритания и США подписали знаковое соглашение о сотрудничестве в тестировании передового искусственного интеллекта и оценке его угроз. Это первое двустороннее соглашение такого рода, которое подчеркивает, насколько серьезно две самые могущественные страны мира относятся к этой новой технологии. Компании тоже должны это делать.
Поскольку компании выделяют больше ресурсов в облако, мы все должны использовать самые передовые доступные технологии для его защиты. Безопасность на основе искусственного интеллекта — это самый быстрый, самый адаптируемый и самый интеллектуальный инструмент, который у нас есть. А чтобы убедиться, что в вашем арсенале есть подходящие средства искусственного интеллекта, стоит обратиться к опытному поставщику корпоративного программного обеспечения и облачного консалтинга. Таким образом, у вас есть доступ к встроенной или дополнительной системе безопасности искусственного интеллекта, которая защитит ваш бизнес во время следующей большой технологической революции. У нас есть лучшие инструменты искусственного интеллекта.
Эта статья была подготовлена ​​в рамках канала Expert Insights от Ny BreakingPro, где мы рассказываем о лучших и ярких умах современной технологической индустрии. Мнения, выраженные здесь, принадлежат автору и не обязательно совпадают с мнением Ny BreakingPro или Future plc. Если вы заинтересованы в участии, вы можете прочитать больше здесь: https://www.techradar.com/news/submit-your-story-to-techradar-pro.

Статья добавлена ботом, с использованием машинного перевода : https://nybreaking.com/category/tech/

Понравилась статья? Поделиться с друзьями:
Интересно о полезном
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!:

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.