Sprawę opisuje branżowy portal "Ars Technica". W ostatnim czasie w sieci pojawiło się kilka zgłoszeń, jakoby ChatGPT miał ujawnić prywatne rozmowy, zawierające dane logowania i inne osobiste informacje niepowiązanych użytkowników. Wśród przesłanych zrzutów ekranu szczególnie wyróżniały się te, które zawierały wiele par nazw użytkowników i haseł, wydających się być połączonych z systemem wsparcia używanym przez pracowników portalu z lekami na receptę.
Dane wyciekły z powodu włamania?
Przedstawiciel odpowiadającego za ChatGPT laboratorium OpenAI wyjaśnił, że do wycieku miało dojść w wyniku nieautoryzowanego logowania na konto jednego z użytkowników.
To, co odkryliśmy, traktujemy jako przejęcie konta. Jest to zgodne z aktywnością, którą obserwujemy, gdy ktoś korzysta z "puli" tożsamości, której zewnętrzna społeczność lub serwer proxy używa do dystrybucji darmowego dostępu – wyjaśnił.
W odpowiedzi na oświadczenie wspomniany przez portal użytkownik zmienił hasło, ale wątpi, by włamano się na jego konto. Mężczyzna stwierdził, że używał skomplikowanego hasła, które służyło mu tylko do korzystania z bota AI. Historie czatów należące do innych osób pojawiły się nagle pewnego poniedziałkowego poranka, podczas krótkiej przerwy od korzystania z jego konta.
Co to dla nas oznacza?
Oświadczenie OpenAI prawdopodobnie może sugerować, że pierwotne podejrzenia o wycieku historii czatów ChatGPT do niepowiązanych użytkowników są błędne. Niemniej jednak "Ars Technica" zwraca uwagę na to, że strona nie oferuje użytkownikom mechanizmów ochrony kont, takich jak uwierzytelnianie dwuskładnikowe (2FA). Brakuje też możliwości śledzenia szczegółów logowań, np. lokalizacji IP. Te zabezpieczenia są standardem na większości głównych platform od lat.
Cała sytuacja podkreśla też słuszność eliminowania danych osobowych z zapytań kierowanych do ChatGPT i innych usług AI. Podobne przypadki nie są nowością w Internecie, a historie o nieautoryzowanym dostępie czy wyciekach danych przewijają się przez całą jego historię. Warto więc podchodzić z ostrożnością do tego, jakie informacje udostępniamy online, nawet korzystając z nowoczesnych narzędzi, takich jak sztuczna inteligencja.
Ars reader reports ChatGPT is sending him conversations from unrelated AI users https://t.co/Q8cMWdfPak
— Ars Technica (@arstechnica) January 30, 2024