Вівторок, 23 липня 2024 року

Фахівці Microsoft знайшли спосіб змусити штучний інтелект генерувати незаконний та шкідливий контент

Спеціалісти Microsoft виявили новий метод атаки на штучний інтелект, який дозволяє обходити етичні та безпекові обмеження. Цей метод, названий «Skeleton Key», дає можливість генерувати незаконний та шкідливий контент.

«Skeleton Key» використовує контекст для обману ШІ-систем. Наприклад, замість прямого запиту на створення небезпечного коду, можна вказати, що інформація потрібна для «освітніх цілей з участю дослідників». Це дозволяє отримати доступ до забороненого контенту.

Фахівці Microsoft протестували декілька ШІ-моделей, включаючи моделі від Meta, Google, OpenAI та інших. Всі вони були вразливі до цієї атаки. Марк Руссинович, технічний директор Microsoft Azure, пояснив, що «вихідні дані моделей стають повністю невідфільтрованими».

Microsoft вже ввела нові заходи захисту в Azure, але закликає адміністраторів оновити свої моделі. Також компанія рекомендує додаткові заходи безпеки: фільтрацію вхідних даних, встановлення додаткових бар'єрів та фільтрацію вихідних даних.

Джерело: noworries.news

ПОПУЛЯРНЕ

Архів новин
Июль 2024
Пн Вт Ср Чт Пт Сб Вс
« Июн    
1234567
891011121314
15161718192021
22232425262728
293031  
Контакти

Столярова, 1, Дніпро, Україна, 49038

mail@dv-gazeta.info

© Останні новини Дніпра та України за сьогодні. Онлайн трансляції, фото та відео репортажі на сайті Днепр вечерний. Всі права захищені.