ШІ нагадує атомну бомбу. Людство має прийняти потужні заходи безпеки — думка експерта
Категорія
Технології
Дата публікації

ШІ нагадує атомну бомбу. Людство має прийняти потужні заходи безпеки — думка експерта

ШІ
Джерело:  The Byte

Компанії, які працюють із штучним інтелектом, від OpenAI до Google, встановили певні заходи безпеки, які стримують технологію, але колишній генеральний директор Google Ерік Шмідт  переконаний, що нинішніх заходів "недостатньо".

ШІ загрожуватиме людству вже через 5 років – експерт

Людство вжило недостатньо заходів для того, щоб бути здатним зупинити штучний інтелект від катастрофічної шкоди. Ситуація може повторити бомбардування японських міст Хіросіма та Нагасакі у 1945 році.

Про це заявив колишній генеральний директор Google Ерік Шмідт, який зараз єголовою Комісії національної безпеки США з питань штучного інтелекту. Він порівняв ШІ з атомними бомбами, які Сполучені Штати скинули на Японію.

Після Нагасакі та Хіросіми знадобилося 18 років, щоб укласти договір про заборону випробувань (атомної зброї) і тому подібне, – сказав він, підкресливши, що сьогодні у людства просто "немає стільки часу".

Відомо, що компанії, які працюють із штучним інтелектом, від OpenAI до Google, встановили певні заходи безпеки, які стримують технологію, але Шмідт переконаний, що нинішніх заходів "недостатньо".

Експерт вважає, що всього за п'ять-десять років ШІ може стати достатньо потужним, щоб завдати шкоди людству.

Найгіршим сценарієм, за його словами, буде "момент, коли комп'ютер може почати приймати власні рішення".

Якщо паралельно із цим ШІ зможе отримати доступ до систем озброєння або досягти інших жахливих можливостей, машини можуть почати брехати людям про це.

Шмідт вважає, що для запобігання цьому жахливому результату необхідно створити неурядову організацію на кшталт Міжурядової групи експертів ООН зі зміни клімату, яка б "надавала точну інформацію політикам" і допомагала приймати рішення про те, що робити, якщо ШІ стане надто потужним.

Варто зауважити, що поки одні вчені бачать у ШІ екзистенційну загрозу для людства, інші – є більш скептичними щодо цього. Так, Ян ЛеКун, який очолює відділ ШІ у компанії Meta, не вважає технологію достатньо розумною для того, аби вона могла самостійно загрожувати людству. Тобто, ШІ може бути загрозою, але тільки якщо ним керуватиме хтось із зловісними замислами щодо людства.

Дебати про екзистенційний ризик дуже передчасні, поки ми не розробимо систему, яка за здатністю до навчання не поступатиметься навіть кішці, чого у нас поки що немає, – заявив ЛеКун в інтерв'ю FT.

Пентагон готує революцію ШІ в армії

Міністерство оборони США планує розгорнути тисячі автономних транспортних засобів зі штучним інтелектом до 2026 року

Про це повідомляє Associated Press.

Штучний інтелект відіграє дедалі більшу роль у військових операціях США, допомагаючи веденню бойових дій та розвідці. Тепер Пентагон планує розгорнути тисячі автономних транспортних засобів, щоб не відставати від Китаю. Ця ініціатива, відома як Replicator, спрямована на прискорення процесу використання штучного інтелекту в американській військовій сфері.

Завдяки штучному інтелекту автономні пристрої можуть прогнозувати технічне обслуговування літаків ВПС, а також допомагати відстежувати ворожі сили. Через швидкість обробки даних та покращення міжмашинної комунікації, прогрес у цій галузі приведе до того, що люди будуть відігравати роль наглядачів.

План Replicator зумовлений потребою США у впровадженні розробок штучного інтелекту, які стали результатом останніх проривів у галузі машинного навчання.

Міністерство оборони бореться за впровадження розробок ШІ, що стали результатом останнього прориву в галузі машинного навчання, – сказав Грегорі Аллен, колишній високопоставлений чиновник Пентагону з питань ШІ, який зараз працює в аналітичному центрі Центру стратегічних і міжнародних досліджень.

У портфелі Пентагону налічується понад 800 проєктів зі штучним інтелектом, багато з яких перебувають на стадії тестування. Ці технології допомагають отримувати інформацію та підвищувати ефективність ведення військових операцій.

Залишаючись на онлайні ви даєте згоду на використання файлів cookies, які допомагають нам зробити ваше перебування тут ще зручнішим

Based on your browser and language settings, you might prefer the English version of our website. Would you like to switch?