Компанія OpenA, заснована Ілоном Маском для дослідження сфери штучного інтелекту, створила нейромережу GPT-2, здатну самостійно писати тексти на різні теми. Однак тепер розробники бояться, що її можуть використовувати для шахрайства.
Як працює GPT-2
Для початку роботи програми необхідно написати всього одну фразу – тезу, що коротко передає зміст майбутнього тексту. Далі GPT-2 підлаштовується під написане та пише повноцінний текст.
Розробники переконують, що нейромережа здатна писати тексти «безпрецедентної якості», проте все залежить від контексту. Наприклад, нейромережа вдало працює з популярними темами, але у текстах складнішої тематики якість написаного значно знижується.
За задумом розробників, GPT-2 можна використовувати для написання текстів, вдосконалення машинного перекладу та покращення систем розпізнавання мови.
Чим небезпечна GPT-2?
Розробники показали лише демоверсію нейромережі, оскільки вважають, що повна може бути небезпечною.
GPT-2 можна використовувати для маніпулювання та шахрайства. Наприклад, нейромережа може створювати неправдиві журналістські матеріали, видавати себе за інших в інтернеті, створювати образливий чи помилковий контент для соцмереж, автоматизувати спам і фішинг.
«Такі технології, а також розроблені раніше моделі для створення фейкових фото і відео знижують вартість виробництва помилкового контенту і дезінформаційних кампаній», – вважають творці GPT-2.
Джерело: AIN
В Італії створили штучний інтелект, якому потрібен сон для більш ефективної роботи
Спасибо!
Теперь редакторы в курсе.