Фото: Pixabay
Дослідник пояснив, чому не підписав гучний лист Ілона Маска, Стіва Возняка та інших.
Американський фахівець зі штучного інтелекту (далі-ШІ) і письменник Елієзер Юдковський вважає, що все людство загине від рук «ворожої надлюдської» версії ШІ.
Про це повідомляє Time.
Юдковський таким чином висловився про відкритий лист, в якому Ілон Маск, Стів Возняк та інші експерти закликають призупинити розробку систем ШІ більш потужних, ніж GPT-4.
“Я утримався від підпису, тому що вважаю, що лист занижує серйозність ситуації і вимагає занадто мало для її вирішення», – написав він.
На думку фахівця, припинення розвитку ШІ-недостатня міра, тому що людство повинно тільки повністю зупинити ці процеси. Він стверджує, що ключове питання полягає не в створенні конкуренції людському інтелекту, а в тому, що станеться після того, як ШІ стане розумнішим за людський.
Юдковський вважає, що»дослідницька лабораторія перейде критичні межі, не помітивши цього”. Найбільш ймовірний результат розвитку ШІ, згідно з гіпотезою експерта, – відмова технології від виконання необхідних людиною дії. В результаті ШІ може припинити піклуватися про людство і «про розумне життя в цілому».
“Багато дослідників, занурених у ці питання, в тому числі і я, очікують, що найімовірнішим результатом створення надлюдсько розумного ШІ за будь-яких віддалених обставин, подібних до нинішніх, буде те, що буквально всі на Землі помруть», – додав він.
Американець вважає, що ворожий надлюдський ШІ може проявитися себе як «ціла інопланетна цивілізація», мисляча зі швидкістю, в мільйони разів перевищує людську. Юдковський додав, що якщо на Землі з’явиться занадто потужний ШІ, то в підсумку все біологічне життя на нашій планеті зникне.
Також “Курсор” повідомляв, що ШІ навчився читати думки людини і візуалізувати їх.