Велика Британія, США, ЄС, Австралія та Китай погодилися з тим, що штучний інтелект становить потенційно катастрофічну небезпеку для людства, уклавши першу міжнародну декларацію.
Про що йдеться в декларації
Двадцять вісім урядів підписали так звану декларацію Блетчлі в перший день саміту з безпеки ШІ, організованого урядом Британії.
Країни домовилися про спільну роботу над дослідженнями безпеки ШІ, навіть незважаючи на ознаки того, що США і Британія конкурують за лідерство в розробці нових правил.
Британський прем’єр Ріші Сунак привітав цю декларацію, назвавши її "абсолютно неймовірною".
У декларації ідеться, що штучний інтелект відкрив великі можливості для людей у багатьох сферах життя: в облаштуванні помешкань, працевлаштуванні, транспорті, освіті, охороні здоров’я, правосудді. Але в цих же сферах він створює і значні ризики.
Багато ризиків, пов’язаних із ШІ, є міжнародними, тому їх найкраще вирішувати у міжнародній співпраці. Країни, міжнародні форуми, компанії, громадянське суспільство та науковці повинні працювати разом.
Програма щодо подолання ризиків ШІ, згідно з декларацією, буде зосереджена на:
виявлення ризиків безпеки ШІ, що викликають спільне занепокоєння;
розробка у державах-підписантах відповідної політики для забезпечення безпеки.
В Україні розроблено дорожню карту з регулювання ШІ
Дорожня карта з регулювання штучного інтелекту в Україні допоможе українським компаніям підготуватися до ухвалення закону-аналога AI Act Європейського Союзу, а громадянам — навчитися захищати себе від ризиків ШІ.
Завдяки розробленому підходу до регулювання штучного інтелекту український бізнес стане більш конкурентоспроможним й отримає доступ до глобальних ринків, а держава зможе інтегруватися до ЄС.
Важливий фокус — права українців у цифровому просторі. Штучний інтелект щодня розвивається, тому наша ціль — створити безпечне середовище, у якому ШІ допомагатиме суспільству, а не створюватиме додаткові загрози.
Більше по темі
- Категорія
- Технології
- Дата публікації
- Додати до обраного
- Категорія
- Технології
- Дата публікації
- Додати до обраного
- Категорія
- Технології
- Дата публікації
- Додати до обраного