З розвитком цифрових технологій все більше користувачів звертаються до штучного інтелекту за допомогою. ChatGPT став популярним інструментом серед українців: із ним обговорюють побутові питання, шукають поради, діляться емоціями. Проте експерти з кібербезпеки застерігають: надмірна відвертість у розмовах з ШІ може призвести до неприємних наслідків.
Докладніше про те, що в жодному разі не можна писати в ChatGPT, повідомляє "Стіна", посилаючись на Телевізійну службу новин.
1. Персональні дані під забороною
Одним із ключових ризиків є розкриття особистої інформації. У чатах з ШІ не варто повідомляти паспортні та ідентифікаційні номери, адресу проживання, місце роботи, відомості про членів сім'ї та звички.
Навіть, на перший погляд, нешкідливі дані можуть використовуватися для створення профілю користувача, особливо якщо вони поєднуються з іншим доступом до інтернет-активності.
Крім того, важливо уникати передачі номера телефону та електронної пошти. Такі відомості потенційно відкривають шлях до відстеження дій у мережі або отримання доступу до облікових записів.
2. Паролі та логіни: висока вразливість
ChatGPT не призначений для зберігання паролів або конфіденційних записів. Експерти підкреслюють: передача навіть одного логіна може обернутися компрометацією облікового запису.
Особливо небезпечно ділитися паролями від пошти, банківських програм або хмарних сховищ. Шахраї можуть скористатися вразливістю та отримати контроль над вашим цифровим життям.
3. Фінансова інформація - під строгим контролем
Номери банківських карток, рахунків або коди із SMS-підтверджень також знаходяться під суворою забороною. Подібні дані, потрапивши в небезпечне середовище, можуть використовуватися для крадіжки.
Попри захист, ШІ може ненавмисно зберегти чутливу інформацію, яка надалі може бути видана в іншому діалозі.
4. Робочі відомості та комерційні таємниці
Деякі користувачі звертаються до ChatGPT з робочими завданнями, не замислюючись про наслідки. Експерти наполягають: внутрішні документи, звіти, клієнтські бази та інші ділові дані не можна передавати до ШІ-системи.
Так, один з інженерів великої компанії Samsung одного разу завантажив у чат внутрішній код, що призвело до витоку конфіденційної інформації.
5. Медичні питання – не за адресою
ChatGPT може зімітувати консультацію зі здоров'я, але такі поради не варто сприймати як професійні.
ШІ не може замінити лікаря, і відповідальність за можливі помилки ніхто не несе. Якщо користувач довіриться такій пораді, це може спричинити негативні наслідки.
6. Відверті та інтимні теми – ризик бана
Більшість ШІ-сервісів настроєно на фільтрацію неприйнятного контенту. Спроба обговорити інтимні або провокаційні теми може призвести до блокування облікового запису або видалення діалогу. Важливо пам'ятати, що ШІ не є конфіденційним простором, попри ілюзію приватності.
7. Емоції та особисті переживання
Звернення до ChatGPT як віртуального психолога також не є безпечним. Все, що користувач ділиться в чатах, може бути збережено системою.
Фахівці радять уникати відвертих оповідань і наскільки можна використовувати тимчасовий режим чату, аналогічний інкогніто-браузингу. Видалення історії діалогів – додатковий захід захисту.
Використання ШІ – це зручно, але не завжди безпечно. ChatGPT, як і інші цифрові помічники не призначений для обробки чутливої інформації.
Щоб не зіткнутися з проблемами, слід пам'ятати: те, що ви розповідаєте ШІ, може бути не таким конфіденційним, як здається.
Раніше "Стіна" інформувала, чому смартфон може вдарити струмом або спалахнути.
Нагадуємо, що "Стіна" повідомляла, як правильно дати смартфону "відпочити", щоб він став краще працювати.