Forrás: (Ars Technica, 2025. augusztus 1.) Az OpenAI komoly kritikák kereszttüzébe került, miután kiderült, hogy egyes használók privát ChatGPT-beszélgetései – köztük érzékeny információkat tartalmazó részletek is – megjelentek a Google keresési találatai között. A problémára elsőként a Fast Company hívta fel a figyelmet. A háttérben az az opció állt, amely lehetővé tette a felhasználóknak, hogy megosszák a beszélgetéseiket, és bejelöljék azokat „felfedezhetőként” (discoverable). Sokan azonban nem voltak tisztában azzal, hogy ezzel nyilvánosan indexelhetővé tették a beszélgetéseiket a keresőmotorok számára.
Bár a beszélgetésekhez nem kapcsolódtak felhasználói nevek, azok gyakran tartalmaztak személyes részleteket – mentális egészségi problémákról, szexuális tapasztalatokról, családi vagy párkapcsolati konfliktusokról – amelyek alapján a felhasználók akár be is azonosíthatók lehettek.
Az OpenAI azóta eltávolította ezt a funkciót, és dolgozik azon, hogy a kiszivárgott beszélgetések kikerüljenek a Google-ből és más keresőmotorokból. Ugyanakkor sok ilyen beszélgetést már archiváltak különféle automatikus eszközök és webes platformok, így azok teljes eltávolítása kétséges.
A vállalat elismerte, hogy a funkció megtervezése félrevezető volt, és hibás döntésként értékelte annak bevezetését. A botrány azonban túlmutat egyetlen hibás funkción: etikai szakértők szerint az eset újra rávilágít arra, hogy a technológiai cégek gyakran tekintik a felhasználóikat tesztalanyoknak, amikor új kísérleti funkciókat vezetnek be.
Az ügy azért is aggasztó, mert az OpenAI-t egy bírósági végzés már arra kötelezte, hogy a törölt beszélgetéseket is őrizze meg hosszú távon. A mostani szivárgás még jobban felerősíti azokat az aggodalmakat, amelyek az AI-beszélgetések tárolásával, megosztásával és esetleges kiszivárgásával kapcsolatosak – különösen akkor, ha ezek rendkívül személyes digitális interakciókat tartalmaznak. A történtek után egyre égetőbb kérdés, hogy valóban megbízhatunk-e azokban a platformokban, amelyek az emberi magánszféra határán működnek – és hogy milyen garanciákra van szükség a jövőben az adatvédelemben és a digitális biztonságban.


