В век стремительного развития искусственного интеллекта, использование нейросетей становится все более распространенным. Однако, астраханцам стоит помнить о потенциальных рисках, связанных с утечкой конфиденциальной информации при работе с крупными AI-платформами.
Как заявил основатель AI-платформы Clipstorm, Тимур Турсунов, даже несмотря на принимаемые меры безопасности, полностью исключить вероятность утечки данных при использовании нейросетей нельзя.
Апрельский инцидент 2023 года с инженерами Samsung, когда секретный код компании оказался на серверах Chat, наглядно продемонстрировал эту опасность. Этот случай должен стать тревожным звоночком для всех пользователей нейросетей.
Современные AI-системы, такие как Grok и OpenAI, разрабатываются с учетом принципа изоляции пользовательских данных. Однако, даже при их использовании, полной гарантии конфиденциальности не существует.
Особую опасность представляют собой различные надстройки и производные продукты, созданные на базе нейросетей. Эти сторонние приложения могут самостоятельно хранить введенную пользователем информацию, становясь потенциальной точкой утечки.
Специалист настоятельно рекомендует категорически воздерживаться от передачи в любые нейросетевые сервисы:
- Паролей: Никогда не сообщайте свои пароли нейросетям.
- Банковских Реквизитов: Держите свои финансовые данные в секрете.
- Паспортных Данных: Не делитесь личной информацией, такой как паспортные данные.
Что можно обсуждать с нейросетями (с осторожностью):
Обсуждение условий сделок и сотрудничества допустимо, но финансовые операции и обработка персональной информации должны осуществляться исключительно через защищенные процессинговые платформы.