Несмотря на то, что ChatGPT пользуется все больше людей, он может стать причиной серьезных проблем, если получит от пользователей конфиденциальную информацию. Что именно никогда нельзя рассказывать ИИ – предупреждают эксперты издания Forbes.
Главные тезисы
Важно избегать разглашения логинов, паролей, финансовых и банковских данных в чат-боте.
Большинство АИ-сервисов могут передавать ваши данные в правоохранительные органы.
Логины и пароли
В таких вопросах ChatGPT доверять точно не стоит, ведь были зафиксированы случаи, когда личная информация одного пользователя неожиданно всплывала в ответах другим пользователям.
Финансовые и банковские данные
Как отмечают специалисты в сфере искусственного интеллекта, ни в коем случае нельзя делиться с чат-ботом номерами карт, CVC, номерами счетов или документов.
Что важно понимать, у ChatGPT нет шифрования, двухфакторной защиты или гарантии удаления данных после обработки.
Конфиденциальные документы
Недавно на весь мир гремела история о том, как сотрудники компании Samsung загрузили в ChatGPT конфиденциальные материалы.
После нее каждому стало понятно, что рабочие отчеты, клиентские базы, коммерческие предложения и особенно внутренние документы компаний не должны оказываться в распоряжении чат-бота.
Медицинская информация
Нельзя игнорировать тот факт, что у ИИ нет медицинского образования, поэтому его выводам точно не стоит доверять.
Кроме того, указано, что для бизнеса, работающего с медицинскими данными, это может закончиться штрафами за нарушение законов о конфиденциальности.
Незаконные и неэтические запросы
Большинство чат-ботов обращают внимание на вопросы, указывающие на готовность человека совершить безнравственный поступок или преступление.
Впоследствии чат-бот может передавать данные в правоохранительные органы.
Например, в Британии и ЕС запрещено использовать ChatGPT для получения информации о создании DeepFake видео с настоящими людьми.