Ілон Маск, Стів Возняк, науковці та фахівці закликають до 6-місячної перерви в навчанні систем, потужніших за GPT-4.
На думку авторів ініціативи, передовий штучний інтелект (ШІ) не мають розробляти, допоки не розроблять та не впровадять спільні протоколи безпеки для таких проєктів, які перевірять незалежні експерти. Про це повідомляє некомерційна організація Future of Life Institute.
"Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики – керованими. Ця впевненість має бути добре виправданою та збільшуватися разом із величиною потенційних ефектів системи", – йдеться у листі.
Фахівці вважають, що при дослідженні та розвитку ШІ треба зосередитися на тому, щоб сучасні системи були більш точними, безпечними, інтерпретованими, прозорими, стійкими, згодними, надійними та лояльними. Також вони закликають розробити робочу групу з незалежних фахівців та ШІ лабораторій, щоб розвивати та впроваджувати загальні протоколи безпеки для розробки ШІ.
Одночасно має бути співпраця розробників ШІ з політиками задля значного прискорення розробки надійних систем управління ШІ. Щонайменше вони повинні включати:
- нові та спроможні регуляторні органи, які займаються темою ШІ;
- нагляд і відстеження високопродуктивних систем ШІ та великих обчислювальних можливостей;
- системи походження та водяних знаків, щоб допомагати відрізняти справжнє від синтетичного та відстежувати витоки моделей;
- надійну екосистему аудиту та сертифікації;
- відповідальність за шкоду, яку заподіяли ШІ;
- надійне держфінансування технічних досліджень безпеки ШІ;
- добре забезпечені ресурсами установи, щоб долати драматичні економічні та політичних зривів (особливо для демократії), спричинені ШІ.
Цей лист підписав засновник SpaceX Ілон Маск, засновник Apple Стів Возняк, професори провідних світових ВУЗів, дослідники ШІ та інші.