Picture: В России объяснили исходящие угрозы от ИИ
16/05/2025
В России объяснили исходящие угрозы от ИИ

Угрозы искусственного интеллекта (ИИ) исходят не от самих нейросетей, а от приложений, созданных на их основе. Об этом в разговоре с «Российской газетой» («РГ») заявили эксперты из РФ.

Специалист по машинному обучению Илья Гусев напомнил, что корпорация Microsoft ранее запретила своим пользователям применять китайский нейросетевой сервис DeepSeek. По словам Гусева, это нормальная мировая практика, и DeepSeek не является единственной запрещенной нейросетью. Однако автор подчеркнул, что сама по себе ИИ-модель не несет опасности.

«Угрозы исходят не от нейросетей, а от приложений на их основе», — объяснил специалист. По его словам, при самостоятельном развертывании модели никаких угроз и рисков нет.

«Безопасность конфиденциальных данных можно обеспечить при использовании больших языковых моделей в закрытом контуре компании — то есть на собственной или доверенной облачной инфраструктуре», — заметил генеральный директор MWS AI Денис Филиппов. Эксперт заключил, что нейросети типа DeepSeek и ChatGPT могут решать задачи, которые не требуют взаимодействия с чувствительными данными.

При этом Дмитрий Аникин из «Лаборатории Касперского» обозначил опасность нейросетей. Угрозы могут исходить из-за кибератак или ошибок на этапе разработки сервиса. Профессор Кафедры мировых политических процессов МГИМО Елена Зиновьева заметила, что уязвимости в системах ИИ несут в себе не только технические, но и стратегические риски.

Ранее Папа Римский Лев XIV назвал ИИ одной из важнейших проблем человечества. По мнению понтифика, нейросети создают трудности для защиты «человеческого достоинства, справедливости и труда».