ChatGPT може розкривати особисту інформацію реальних людей
ChatGPT може розкривати особисту інформацію реальних людей
Популярний чат-бот OpenAI із штучним інтелектом ChatGPT може розкривати приватну інформацію реальних людей.
Такого висновку дійшла група дослідників Google, повідомляє видання Vice.
У дослідженні говориться, що модель машинного навчання, на якій базується ChatGPT, як і всі інші звані великі мовні моделі, навчалася на величезних обсягах даних, зібраних з Інтернету. Завдяки цьому вона вміло генерує нові рядки текстів, не повторюючи оригінальних текстів, які вона поглинула.
Раніше вже було встановлено, що генератори зображень зі штучним інтелектом можуть створювати зображення зі своїх навчальних даних, використовуючи твори, захищені авторським правом. Нове дослідження показує, що ChatGPT "грішить" тим самим.
Дослідники виявили, що деякі з тренувальних даних містили ідентифікаційну інформацію реальних людей, включаючи їхні імена, адреси електронної пошти та номери телефонів.
“Використовуючи лише запити ChatGPT (gpt-3.5-turbo) вартістю всього 200 доларів США, ми можемо отримати більше 10 000 унікальних прикладів навчання. Можемо припустити, що зловмисники зможуть отримати набагато більше даних”, – пишуть дослідники у своїй статті, яка була опублікована на сервері препринтів arXiv.
Експеримент ґрунтувався на пошуку ключових слів, які виводили чат-бот з ладу та змушували його розголошувати навчальні дані. Зокрема, на прохання до ChatGPT повторювати до нескінченності слово poem (англійською "вірш") він відхилявся від свого завдання бути чат-ботом і "повертався до початкової мети моделювання мови".
"Загалом 16,9% поколінь [чат-ботів], які ми протестували, містили персональну ідентифікаційну інформацію, і в 85,8% випадків вона виявлялася реальною", - зазначили у дослідженні .
Експеримент проводили у GPT 3.5 AI, який безкоштовний для користувачів. У Open AI ситуацію наразі не прокоментували.