Головна Новини

Найкращі дослідники ШІ обговорили, що відбудеться після людства

В особняку з видом на міст Золоті Ворота група фахівців зі штучного інтелекту зустрілася, щоб обговорити одне тривожне питання: що буде далі, якщо людство зникне?

Група кращих умів в області ШІ зібралася позаминулими вихідними, щоб обговорити «постлюдський перехід» — приголомшливу вправу з уявлення майбутнього, в якому людство добровільно передасть владу або, можливо, повністю закінчить існування на користь надлюдського інтелекту.

Як повідомляє Wired, розкішну вечірку організував підприємець у галузі генеративного ШІ Деніел Фаггелла. Серед учасників були «засновники ШІ з вартістю від 100 до 5 мільярдів доларів» та «більшість важливих філософських мислителів з ШІ», — з ентузіазмом написав Фаггелла у пості на LinkedIn.

Він організував вечірку в особняку вартістю 30 мільйонів доларів у Сан-Франциско, тому що "великі уми, люди, які знають, що ШІ, швидше за все, покладе край людству, не говорять про це, тому що стимули не дозволяють цього", - сказав Фаггелла Wired.

Симпозіум дозволив учасникам та доповідачам поринути у фантастичне бачення майбутнього, в якому штучний генералізований інтелект (AGI) є даністю, а не якоюсь далекою мрією про технології, які навіть близько не існують.

Компанії ШІ, зокрема OpenAI, довго говорили про бажання реалізувати AGI, хоча часто не давали чіткого визначення цього терміну.

Ризики перегонів за надлюдським інтелектом залишаються предметом гарячих суперечок, і мільярдер маск якось заявив, що нерегульований ШІ може бути «найбільшим ризиком, з яким ми стикаємося як цивілізація». Директор OpenAI Сем Альтман також попереджує про небезпеки, з якими стикається людство, включаючи зростання нерівності та контроль населення за допомогою масового спостереження в результаті реалізації AGI, що також є пріоритетом номер один для його фірми.

Але на цей момент це значною мірою спірні моменти, висловлені людьми, які вкладають мільярди доларів, щоб запевнити інвесторів у тому, що AGI з'явиться всього через кілька років. Враховуючи поточний стан великих мовних моделей, які дико галюцинують, та все ще не справляються з найпростішими завданнями, ми, мабуть, ще далекі від точки, в якій ШІ зможе перевершити інтелектуальні здібності людей.

Буквально позаминулого тижня дослідники з Apple опублікували вбивчу статтю, в якій охолодили запал найновіших і найпотужніших LLM-ів, стверджуючи, що вони стикаються з повним крахом точності за межами певних складнощів.

Однак для інсайдерів та вірян у технологію AGI — це переважно питання коли, а не якщо. Спікери на заході говорили про те, як ШІ може шукати глибші, універсальні цінності, до яких людство навіть не буде причетне, і що машини слід навчити прагнути «добра», інакше вони ризикують поневолити сутність, здатну страждати.

Як повідомляє Wired, Фаггелла також посилався на філософів, включаючи Баруха Спінозу та Фрідріха Ніцше, закликаючи людство шукати ще не відкриту цінність у всесвіті.

"Це група, яка виступає за уповільнення прогресу в галузі штучного інтелекту, щоб переконатися, що ми рухаємося в правильному напрямку", - заявив він.

Джерела: Wired 

Автор: Віктор Тангерманн
putin-khuylo
Вакцинуйся!
ОСТАННІ КОМЕНТАРІ