Боевики ДНР обстреляли оккупированную ими Горловку: появились фотодоказательства
Боевики так называемой ДНР провели обстрел Горловки, которая с 2014 года находится под контролем группировки.
Об этом сообщает ONLINE.UA со ссылкой на пользователей Twitter.
В сети появились фото обстрела дома по адресу: улица Докучаева, 2, в Горловке. При этом, на фотографиях видно, что снаряды прилетели с юго-востока Украины, где, несмотря на заявления боевиков о соблюдении Минских соглашений, не может быть военнослужащих Вооруженных сил Украины.
"Хочу услышать очередную сказку про обстрел 3.07.2016 ВСУ. На фото всё видно, кто и откуда, - написал пользователь Изверг бандеровский, и добавил: - Калибр 82, а прилетело с юго-востока".
Пользователь Карамад прокомментировал новость: "тю: - это ВСУ лупили! - так прилетели же с востока?! - натовские снаряды, как бумеранг! (подслушал сегодня в магазине Торецка)".
Исследователи из Microsoft и Университета Карнеги-Меллона предупреждают, что чем больше вы используете искусственный интеллект, тем больше ухудшаются ваши когнитивные способности. При этом сама корпорация занимается разработкой ИИ и снабжает его в виде чат-бота Copilot, интегрируя во все возможные продукты.
Главные тезисы
Использование искусственного интеллекта ухудшает навыки критического мышления у работников, особенно в задачах с низким уровнем важности.
Чем больше уверенность в способности ИИ выполнить задачу, тем менее критично мыслит человек, отдавая контроль полностью алгоритму.
Пользователи, имеющие доступ к генеративным инструментам ИИ, получают менее разнообразные результаты для одной задачи, что свидетельствует об ухудшении критического мышления.
Использование ИИ уничтожает навыки критического мышления
Однажды искусственный интеллект может стать настолько хорошим в выполнении задач, а мы настолько зависимы от его помощи, что наши собственные способности атрофируются.
Об этом предупреждает отчет, в котором говорится, что чем больше люди полагаются на инструменты ИИ, тем менее критично они мыслят. Это усложняет использование навыков, когда они нужны, а ИИ нет под рукой, сообщает Microsoft.
Исследователи опросили 319 работников, работа которых связана с обработкой данных или информации. Их попросили рассказать о том, как они используют инструменты генеративного ИИ на рабочем месте, в частности, о конкретных задачах, к которым применялся ИИ, и о том, насколько они были уверены в способности искусственного интеллекта выполнить эту работу.
Кроме того, респонденты должны были оценить его фактический результат и подумать над тем, насколько они были уверены в собственной способности выполнить ту же задачу без помощи искусственного интеллекта.
В ходе исследования была обнаружена закономерность: чем больше работник был уверен в способности искусственного интеллекта выполнить задачу, тем чаще он чувствовал, что "отпускает руки от руля", или проще говоря перестает контролировать ситуацию, отдавая ее полностью по усмотрению алгоритма.
Участники демонстрировали "потенциал чрезмерного доверия технологии без надлежащей проверки". Исследование показало, что это особенно актуально для задач с низким уровнем важности, в которых люди, как правило, менее критичны.
Вместе с тем исследователи говорят, что человеку наоборот свойственно "открывать глаза перед простой задачей". Это означает, что даже в такой работе мы начали сдавать позиции и деградировать, что вызывает беспокойство по поводу "долгосрочной зависимости и уменьшения самостоятельности в решении проблем".
Чем меньше работники были уверены в способности ИИ выполнить поставленную задачу, тем больше они использовали свои навыки критического мышления. В свою очередь, они, как правило, сообщали о большей уверенности в своей способности оценивать результаты работы искусственного интеллекта и совершенствовать их самостоятельно.
Еще один важный вывод исследования: пользователи, которые имели доступ к генеративным инструментам ИИ, как правило, получали "менее разнообразный набор результатов для одной и той же задачи" по сравнению с теми, кто не имел такого доступа. Исследователи пишут, что нехватку разнообразных результатов можно интерпретировать как "ухудшение критического мышления" работников.
Исследование не отрицает идею о том, что существуют ситуации, в которых инструменты искусственного интеллекта могут повысить эффективность, но оно поднимает тревожные флажки о цене этих преимуществ.
Полагаясь на ИИ, работники начинают терять мышечную память, которую они развили, выполняя определенные задачи самостоятельно. Они начинают отдавать на аутсорсинг не только саму работу, но и свое критическое отношение к ней, предполагая, что машина с ней справится без ошибок.
Так что если вы боитесь, что вас заменит искусственный интеллект, но при этом используете его в своей работе без надлежащей проверки результатов и дополнения его работы собственными силами, то вы просто создаете так называемое самосовершающееся пророчество.