Дослідники із OpenAI, Стенфордського та Джорджтаунського університетів переконані, що великі мовні моделі на кшталт ChatGPT можуть бути використані для зумисної дезінформації користувачів соцмереж. Відповідно до звіту вчених, це зумовлено тим, що сьогодні скористатися генеративними мовними моделями можуть всі без винятку. Дослідники переймаються, що ці інструменти можуть перетворитися на ефективну зброю в руках пропагандистів, пише vice.com.

Вчені зазначають, що поява ШІ-інструментів фактично скасовує потреби в «фабриках тролів». Тепер генерувати величезну кількість текстів, «вкидати» їх до соцмереж, просувати через ЗМІ можна буде завдяки нейромережам. Фахівці занепокоєні тим, що тоталітарні країни на кшталт росії і КНР можуть інвестувати в розробку ШІ і поставити «на потік» цей процес.

Дослідники переконані, що уряди демократичних держав мають створити інструменту для контролю доступу до обладнання ШІ, зокрема до чипів. Прикладом є обмеження, введенні США проти КНР. Відсутність високих технологій уповільнить процес «прокачки» власних нейромереж тоталітарними режимами.

Також вчені пропонують обмежити доступ до ШІ-моделей і відстежувати появу написаного нейромережами контенту на соціальних майданчиках.

Нагадаємо, компанія Google посилює боротьбу з розповсюдженням дезінформації стосовно українських біженців у Німеччині.

Коменти