У світі дедалі частіше з’являються підроблені відео та фото, і Adobe — компанія, яка прямо асоціюється з відредагованими світлинами — каже, що також занепокоєна через це явище. Ба більше, її співробітники разом із дослідниками з Каліфорнійського університету вже працюють над інструментом, що виявлятиме фейки. В його основі — машинне навчання.

Торік інженери вже створили технологію на базі штучного інтелекту, яка визначає відредаговані медіафайли, створені шляхом об’єднання, клонування та видалення об’єктів.

Ми пишаємося тим впливом, який має Photoshop та інші креативні інструменти Adobe на світ. Але ми також визнаємо етичні наслідки наших технологій. Підроблений контент — серйозна проблема, яка стає дедалі актуальнішою.

Прес-служба компанії

Так от. Новий інструмент, створений Adobe, визначає зміни, зроблені за допомогою Photoshop Liquify. Зазвичай його використовують для корегування форми та виразу обличчя.

Для початку інженери завантажили до нейронної мережі базу парних світлин-портретів. На одному — оригінальні зображення, на іншому — відредаговані через Liquify. Так вони отримали алгоритм, і доволі ефективний.

Коли потім людей-добровольців попросили визначити, які фото були змінені, ті відповіли правильно лише у 53% випадків. Програма — у 99%. 

Інструмент може навіть повернути світлину до оригінального вигляду, але найчастіше отриманий результат все ж далекий від того самого оригіналу.

Ідея чарівної універсальної кнопки «Скасувати», яка працюватиме для всіх змін зображення, все ще далека від реальності. Але ми живемо у світі, де щораз складніше довіряти цифровій інформації, тому ми, безумовно, будемо й далі працювати у цьому напрямі.

Річард Чжан — дослідник Adobe

Поки компанія не планує комерціалізувати свої напрацювання у галузі розвінчання фейків.

Закінчив журфак у славному місті Запоріжжя. Сім років працював за фахом у місцевих газетах. 2013 року переїхав до не менш славетного міста Лева. Але це була не єдина зміна у житті – з того часу Інтернет став мені і за редакцію, і за газетні шпальти

Коменти