Poplista

1
Zalia Diament
2
Switch Disco, Charlotte Haining, Felix I Found You
3
sanah Miłość jest ślepa

Co było grane?

17:00
FAKTY RMF FM
17:05
Margaret / The Voice Of Poland 2015 Finalists Coraz bliżej święta
17:08
Lost Frequencies / David Kushner In My Bones

Internauci w szoku. ChatGPT ujawnił prywatne dane innych użytkowników?!

W ostatnich dniach świat technologii zelektryzowała informacja o tajemniczych historiach czatów z ChatGPT, które zawierały prywatne dane. Jak się okazuje, przyczyną tego zjawiska najprawdopodobniej było przejęcie konta przez nieautoryzowane osoby.
ChatGPT, fot. Shutterstock/solomonphotos

Sprawę opisuje branżowy portal "Ars Technica". W ostatnim czasie w sieci pojawiło się kilka zgłoszeń, jakoby ChatGPT miał ujawnić prywatne rozmowy, zawierające dane logowania i inne osobiste informacje niepowiązanych użytkowników. Wśród przesłanych zrzutów ekranu szczególnie wyróżniały się te, które zawierały wiele par nazw użytkowników i haseł, wydających się być połączonych z systemem wsparcia używanym przez pracowników portalu z lekami na receptę.

Dane wyciekły z powodu włamania?

Przedstawiciel odpowiadającego za ChatGPT laboratorium OpenAI wyjaśnił, że do wycieku miało dojść w wyniku nieautoryzowanego logowania na konto jednego z użytkowników.

To, co odkryliśmy, traktujemy jako przejęcie konta. Jest to zgodne z aktywnością, którą obserwujemy, gdy ktoś korzysta z "puli" tożsamości, której zewnętrzna społeczność lub serwer proxy używa do dystrybucji darmowego dostępu – wyjaśnił.

W odpowiedzi na oświadczenie wspomniany przez portal użytkownik zmienił hasło, ale wątpi, by włamano się na jego konto. Mężczyzna stwierdził, że używał skomplikowanego hasła, które służyło mu tylko do korzystania z bota AI. Historie czatów należące do innych osób pojawiły się nagle pewnego poniedziałkowego poranka, podczas krótkiej przerwy od korzystania z jego konta.

Co to dla nas oznacza?

Oświadczenie OpenAI prawdopodobnie może sugerować, że pierwotne podejrzenia o wycieku historii czatów ChatGPT do niepowiązanych użytkowników są błędne. Niemniej jednak "Ars Technica" zwraca uwagę na to, że strona nie oferuje użytkownikom mechanizmów ochrony kont, takich jak uwierzytelnianie dwuskładnikowe (2FA). Brakuje też możliwości śledzenia szczegółów logowań, np. lokalizacji IP. Te zabezpieczenia są standardem na większości głównych platform od lat.

Cała sytuacja podkreśla też słuszność eliminowania danych osobowych z zapytań kierowanych do ChatGPT i innych usług AI. Podobne przypadki nie są nowością w Internecie, a historie o nieautoryzowanym dostępie czy wyciekach danych przewijają się przez całą jego historię. Warto więc podchodzić z ostrożnością do tego, jakie informacje udostępniamy online, nawet korzystając z nowoczesnych narzędzi, takich jak sztuczna inteligencja.

Polecamy

Więcej z kategorii

Najchętniej czytane