Четвер, 6 лютого 2025 року

Фахівці Microsoft знайшли спосіб змусити штучний інтелект генерувати незаконний та шкідливий контент

Спеціалісти Microsoft виявили новий метод атаки на штучний інтелект, який дозволяє обходити етичні та безпекові обмеження. Цей метод, названий «Skeleton Key», дає можливість генерувати незаконний та шкідливий контент.

«Skeleton Key» використовує контекст для обману ШІ-систем. Наприклад, замість прямого запиту на створення небезпечного коду, можна вказати, що інформація потрібна для «освітніх цілей з участю дослідників». Це дозволяє отримати доступ до забороненого контенту.

Фахівці Microsoft протестували декілька ШІ-моделей, включаючи моделі від Meta, Google, OpenAI та інших. Всі вони були вразливі до цієї атаки. Марк Руссинович, технічний директор Microsoft Azure, пояснив, що «вихідні дані моделей стають повністю невідфільтрованими».

Microsoft вже ввела нові заходи захисту в Azure, але закликає адміністраторів оновити свої моделі. Також компанія рекомендує додаткові заходи безпеки: фільтрацію вхідних даних, встановлення додаткових бар'єрів та фільтрацію вихідних даних.

Джерело: noworries.news

ПОПУЛЯРНЕ

Архів новин
Февраль 2025
Пн Вт Ср Чт Пт Сб Вс
« Янв    
 12
3456789
10111213141516
17181920212223
2425262728  
Контакти

Столярова, 1, Дніпро, Україна, 49038

mail@dv-gazeta.info

© Останні новини Дніпра та України за сьогодні. Онлайн трансляції, фото та відео репортажі на сайті Днепр вечерний. Всі права захищені.