Завдяки фільмам ми знаємо, що штучний інтелект врешті-решт захопить весь світ. Та вже зараз стає зрозуміло, що процес цей буде не миттєвим, а поступовим, від однієї технології до іншої. На думку MIT Technology Review, 2018 року ШІ чи найперше продемонстрував свій темний (та подекуди недалекий) бік. Тому фахівці підготували перелік потенційних небезпек від ШІ, на які варто звернути увагу 2019 року.

Безпілотні авто

У березні 2018 року автомобіль Uber, на якому випробовували самокеровану технологію, на смерть збив людину. Після цього навіть технооптимісти зрозуміли, якою загрозою є безпілотна машина.

Водночас не лише Uber, а й більш потужні автовиробники, зокрема Ford та General Motors, уже вклали у розвиток цього напряму мільйони, якщо не мільярди, доларів. Та поки найбільших успіхів досягла Waymo, дочірня компанія Alphabet. Торік вона створила першу повністю автономну службу таксі в Аризоні. Але навіть технологія Waymo має суттєві обмеження, тому автономні автомобілі не можуть їздити всюди, де заманеться.

Застереження на 2019 рік. Регулятори в США та інших країнах доволі поблажливо ставляться до експериментальних інновацій, аби їх не сполохати. Але пішоходи й водії не підписувалися на ролі піддослідних мишей. Тому 2019 року слід очікувати на ще одну трагедію, щоб чиновники запровадили суворіші та чіткіші правила для випробування безпілотних технологій.

Використання ботів у політичних іграх  

Того ж березня світ дізнався, що консалтингова компанія Cambridge Analytica використала особисті дані користувачів Facebook, щоб вплинути на вибори президента США 2016 року. Подальші дослідження показали, як можна ефективно поширювати дезінформацію через соцмережі.

Під час слухань у Конгресі Марк Цукерберг, генеральний директор Facebook, пообіцяв, що ШІ навчатимуть самотужки знаходити та блокувати небезпечний контент.

Застереження на 2019 рік. Обіцянки Цукерберга можна перевірити на виборах цього року, які пройдуть у Південній Африці та Нігерії, а також в Україні. Окрім цього, у США вже розпочалася підготовка до виборів-2020. Ймовірно, ми побачимо еволюцію технологій дезінформації та шкідливих чат-ботів зокрема.

Етичний кодекс

Торік працівники Google дізналися, що їхня компанія разом із ВПС США розробляє бойові дрони зі ШІ, які б краще ідентифікували цілі. Вони виступили проти такого співробітництва, і в результаті Google відмовилася від цього проекту та створила кодекс етики ШІ.

Деякі учасники ринку підтримали кампанію щодо заборони використання автономної зброї. З іншого боку, застосування штучного інтелекту у військовій галузі лише набирає обертів. Ба більше, інші компанії, такі як Microsoft та Amazon, не проти «допомогти» військовим у їхніх «прожектах».

Застереження на 2019 рік. Витрати Пентагону на розробку зброї зі ШІ лише зростуть. Та активісти сподіваються, що після засідань ООН, запланованих на цей рік, з’явиться угода про заборону такого виду озброєння.

Спостереження

Технологія ідентифікації осіб за допомогою ШІ поширюється країнами з дивовижною швидкістю. Та це шлях до антиутопії, впевнені громадські активісти, бо мова йде про вторгнення в особисте життя людей та можливість підняти дискримінацію на рівень вище.

У Китаї, наприклад, поліція вже застосовує «розумну» ідентифікацію. Водночас Amazon продає таку технологію імміграційним та правоохоронним органам США.

Застереження на 2019 рік. Розпізнавання осіб працюватиме у веб-камерах та автомобілях. Цією функцією користуватимуться як для визначення емоцій, так і для ідентифікації особи. Але є надія, що цього року у цій галузі почнуть наводити лад.

Фейк-відео

Швидке поширення deepfake-відео торік продемонструвало, з якою легкістю ШІ може робити порноролики за «участю» зірок. Водночас компанія Nvidia познайомила світ із результатами роботи своєї генеративно-змагальної мережі — вона створює фотореалістичні зображення людей будь-якої статі, раси та віку.

Застереження на 2019 рік. Deepfake-технології будуть розвиватися, й люди дедалі частіше потраплятимуть у ці пастки. Відомо, що DAPRA при Міноборони США тестуватиме нові методи виявлення фейк-відео. Але оскільки такі дослідження, знову ж таки, спираються на ШІ, це буде гра у кішки-мишки.

Дискримінація за алгоритмом

Торік з’ясувалося, що алгоритми машинного навчання можуть бути необ’єктивними. Приміром, вони гірше розпізнавали жінок та чоловіків із темним кольором шкіри, ніж білих. Також виявилося, що віртуальний рекрутер Amazon — сексист, бо, переглядаючи резюме, він частіше обирав чоловіків, аніж жінок. Це стало можливим через незбалансований набір початкових даних.

Застереження на 2019 рік. Буде створено нові методи виявлення й подолання необ’єктивності. Зокрема, 2020 року в Ефіопії має відбутися міжнародна конференція щодо машинного навчання. Бо африканські вчені, що працюють над проблемами упередженого ставлення, вважають, що можуть зіткнутися з перешкодами при отриманні віз до інших країн.

Закінчив журфак у славному місті Запоріжжя. Сім років працював за фахом у місцевих газетах. 2013 року переїхав до не менш славетного міста Лева. Але це була не єдина зміна у житті – з того часу Інтернет став мені і за редакцію, і за газетні шпальти

Підтримайте Токар
50 грн.

10% середньостатистичної статті,
або ж пів дня роботи нашого сервера

Підтримати
Ось вона, нагода стати причетним до розвитку незалежних медіа!
Коменти