Великобритания, США, ЕС, Австралия и Китай согласились с тем, что искусственный интеллект представляет потенциально катастрофическую опасность для человечества, заключив первую международную декларацию.
О чем идет речь в декларации
Двадцать восемь правительств подписали так называемую декларацию Блетчли в первый день саммита по безопасности ИИ, организованного правительством Британии.
Страны договорились о совместной работе над исследованиями безопасности ИИ, даже несмотря на признаки того, что США и Великобритания конкурируют за лидерство в разработке новых правил.
Британский премьер Риши Сунак приветствовал эту декларацию, назвав ее "совершенно невероятной".
В декларации говорится, что искусственный интеллект открыл большие возможности для людей во многих областях жизни: в обустройстве жилья, трудоустройстве, транспорте, образовании, здравоохранении, правосудии. Но в этих же областях он создает и значительные риски.
Многие риски, связанные с ИИ, являются международными, поэтому их лучше всего решать в международном сотрудничестве. Страны, международные форумы, компании, гражданское общество и учёные должны работать вместе.
Программа по преодолению рисков ИИ, согласно декларации, будет сосредоточена на:
выявление рисков безопасности ИИ, вызывающих общую обеспокоенность;
разработка в государствах-подписантах соответствующей политики по обеспечению безопасности.
В Украине разработана дорожная карта по регулированию ИИ
Дорожная карта по регулированию искусственного интеллекта в Украине поможет украинским компаниям подготовиться к принятию закона-аналога AI Act Европейского Союза, а гражданам научиться защищать себя от рисков ИИ.
Благодаря разработанному подходу к регулированию искусственного интеллекта, украинский бизнес станет более конкурентоспособным и получит доступ к глобальным рынкам, а государство сможет интегрироваться в ЕС.
Важный фокус – права украинцев в цифровом пространстве. Искусственный интеллект ежедневно развивается, поэтому наша цель — создать безопасную среду, в которой ИИ будет помогать обществу, а не создавать дополнительные угрозы.
Больше по теме
- Категория
- Технологии
- Дата публикации
- Додати до обраного
- Категория
- Технологии
- Дата публикации
- Додати до обраного
- Категория
- Технологии
- Дата публикации
- Додати до обраного