ШІ такий же небезпечний, як ядерна війна та глобальні пандемії .

Про це йдеться в останньому попередженні Центру безпеки ШІ (CAIS). Цю заяву підтримують основні гравці індустрії штучного інтелекту, включаючи Сема Альтмана , голову творця ChatGPT OpenAI .

Це попередження є одним із багатьох, які були видані за останні місяці. Деякі з перших творців технології казали, що ми йдемо головою вперед до знищення людства, а інші казали, що регулювання вкрай необхідно .

gpt ai

Деякі з цих тверджень змусили людей зрозуміти сенс все більш гіперболічних тверджень.

Девід Крюгер, експерт зі штучного інтелекту та доцент Кембриджського університету, сказав, що хоча люди можуть захотіти конкретних сценаріїв, коли справа доходить до екзистенційного ризику штучного інтелекту, все одно важко вказати на них з будь-яким ступенем упевненості.




«Мене це не хвилює, тому що існує неминуча загроза в тому сенсі, що я можу точно бачити, що це загроза. Але я думаю, що у нас не так багато часу, щоб підготуватися до потенційних майбутніх загроз».

1. Поглинання ШІ

Одним із найбільш часто згадуваних ризиків є те, що ШІ вийде з-під контролю його творця.

Загальний штучний інтелект (AGI) відноситься до ШІ, який настільки ж розумний або розумніший за людей у ​​широкому діапазоні завдань. Сучасні системи ШІ не розумні, але вони створені, щоб бути схожими на людей. ChatGPT, наприклад, створений для того, щоб користувачі відчували, ніби вони спілкуються з іншою людиною, сказав Дженіс Вонг з Інституту Алана Тюрінга.




Експерти розділилися щодо того, як саме визначити AGI, але загалом погоджуються, що потенційна технологія становить небезпеку для людства, яку потрібно досліджувати та регулювати, повідомив Аарон Мок.

Крюгер сказав, що найбільш очевидним прикладом цих небезпек є військове змагання між державами. «Військова конкуренція з автономною зброєю — системами, які за своєю конструкцією мають здатність впливати на фізичний світ і завдавати шкоди — здається більш зрозумілим, як такі системи можуть призвести до вбивства багатьох людей», — сказав він.

«Сценарій повної війни на основі штучного інтелекту в майбутньому, коли ми матимемо передові системи, які розумніші за людей, я думаю, що дуже ймовірно, що системи вийдуть з-під контролю і в результаті можуть вбити всіх», — сказав він.




2. ШІ, що викликає масове безробіття

Зростає консенсус щодо того, що штучний інтелект є загрозою для деяких робочих місць .

Абхішек Гупта, засновник Монреальського інституту етики штучного інтелекту, сказав, що перспектива втрати роботи через штучний інтелект є найбільш «реалістичною, негайною та, можливо, невідкладною» екзистенційною загрозою.

«Нам потрібно поглянути на відсутність мети, яку люди відчуватимуть у разі масової втрати роботи», — сказав він  "Екзистенціальна частина цього полягає в тому, що люди збираються робити і звідки вони отримають свою мету?"

«Це не означає, що робота — це все, але це досить значна частина нашого життя», — додав він.




Виконавчі директори починають відкрито розповідати про свої плани щодо використання ШІ. Наприклад, генеральний директор IBM Арвінд Крішна нещодавно оголосив, що компанія сповільнить наймання на посади, які можна замінити штучним інтелектом .

«Чотири чи п'ять років тому ніхто б не сказав нічого подібного і не сприйняв би його серйозно», — сказав Гупта про IBM.

3. Упередженість ШІ

Якщо системи штучного інтелекту використовуються для прийняття ширших суспільних рішень, систематичне упередження може стати серйозним ризиком, кажуть експерти.




Уже було кілька прикладів упередженості в генеративних системах ШІ, включаючи ранні версії ChatGPT. Ви можете прочитати деякі шокуючі відповіді чат-бота тут . OpenAI додав більше огорож , щоб допомогти ChatGPT уникати проблемних відповідей від користувачів, які запитують систему про образливий вміст.

За словами Гупти, якщо є випадки невиявленої упередженості в системах штучного інтелекту, які використовуються для прийняття рішень у реальному житті, наприклад, затвердження соціальних виплат, це може мати серйозні наслідки.

За словами Вонга, навчальні дані часто базуються переважно на даних англійською мовою, а фінансування навчання інших моделей ШІ різними мовами обмежене.




«Таким чином, є багато людей, яких виключають, або певні мови будуть вивчатися гірше, ніж інші мови», – сказала вона.