Search Login
ГлавноеНовоеИзбранное
Комментарии
Графики
СправкаО проекте
ВходРегистрация
Настройки
Avatar
lbjirerpdbwzcx5b Subscribers20
Технологии
ИИ продолжит влиять на кибербезопасность в 2024 году
По мере распространения технологий искусственного интеллекта люди все чаще сталкиваются с проблемами конфиденциальности, что делает невозможным рассмотрение ИИ в отрыве от сферы кибербезопасности. Эксперты «Лаборатории Касперского» попытались спрогнозировать последствия стремительного развития искусственного интеллекта.
Более сложные уязвимости
По мере того как большие языковые модели (LLM), выполняющие инструкции, будут интегрироваться во все большее количество продуктов и сервисов, на стыке вероятностного генеративного ИИ и традиционных детерминированных технологий будут возникать новые, сложные уязвимости. В результате количество сценариев атак, которые должны предусмотреть ИБ-специалисты, вырастет. Это потребует от экспертов внедрения новых мер безопасности.

Появление полнофункционального ИИ-ассистента для специалистов по кибербезопасности

Генеративный ИИ используется для создания инновационных инструментов кибербезопасности, что в перспективе может привести к созданию помощника, использующего большие языковые модели (LLM) и другие технологии машинного обучения. Этот инструмент может предлагать рекомендации на основе выполненных команд при проведении пентестов.

Мошенники все чаще будут использовать нейросети для создания изображений и видео

В 2024 году злоумышленники могут чаще применять нейросети для создания убедительного контента. Как следствие, попытки мошенничества могут стать более изощренными, что приведет к росту числа атак и их жертв.

В 2024 году генеративный ИИ не внесет существенных изменений в ландшафт угроз

Несмотря на вышеперечисленные тенденции, эксперты «Лаборатории Касперского» по-прежнему скептически относятся к тому, что ИИ в ближайшее время существенно изменит ландшафт угроз. Хотя злоумышленники и используют генеративный ИИ, то же самое делают и специалисты в области кибербезопасности, которые будут применять те же или даже более продвинутые инструменты для проверки безопасности программного обеспечения и сетей, поэтому в результате ландшафт угроз вряд ли кардинально изменится.

В выработке норм и практик, связанных с ИИ, важную роль будут играть частные компании

Негосударственные организации, в особенности корпорации, будут играть решающую роль в формировании норм и практик, связанных с ИИ. Обладая обширным опытом в разработке и использовании искусственного интеллекта, негосударственные структуры способны внести неоценимый вклад в обсуждение вопросов регулирования ИИ как на международном, так и на национальном уровне. Законодатели по всему миру уже используют эти знания, активно вовлекая бизнес и ученых в процесс разработки стратегий регулирования в сфере ИИ.

Маркировка контента, созданного искусственным интеллектом

Будет появляться все больше нормативных актов, требующих явно идентифицировать сгенерированный с помощью ИИ контент. Поставщики цифровых сервисов также будут включать это требование в свои политики и продолжат инвестировать в технологии распознавания такого контента. Разработчики и исследователи, со своей стороны, будут участвовать в создании методов маркировки сгенерированного ИИ медиаконтента для облегчения его идентификации и определения источника происхождения.


07 Янв 2024 21:04
1.5K
5
Комментарии (0)
Читайте так же
Loading...
Перейти на главную
Читать в Telegram