Az új megoldás automatikusan azonosítja, hogy a fiókod kiskorúhoz tartozik-e. Az OpenAI célja egy mindenki számára biztonságosabb ChatGPT.

A ChatGPT lakossági csomagjaiban bevezetik az életkor-becslést annak megállapítására, hogy egy fiók 18 év alatti vagy 18 év feletti személyhez tartozik-e. A cél az, hogy a tizenévesek számára megfelelő élményt és védelmi intézkedéseket biztosítsanak. A megoldás a Teen Safety Blueprint, valamint a 18 év alattiak modellviselkedési alapelveiben bemutatott tervekre épül, és egy új, fejlett technológiát alkalmaz – jelentette be blogján az OpenAI.

Az életkor-becslés a már meglévő védelmi intézkedésekre épül. Azok a tizenévesek, akik regisztrációkor azt mondják, hogy 18 év alattiak, automatikusan extra védelmet kapnak, hogy kevesebb érzékeny vagy esetleg káros tartalommal találkozzanak. Ez a megközelítés azt is lehetővé teszi, hogy a felnőtteket felnőttként kezeljék, és a biztonsági kereteken belül úgy használhassák az eszközöket, ahogyan szeretnék.

Halálesetek hozták lépéskényszerbe az OpenAI-t

A vállalat korábban már megosztotta az életkorbecsléssel kapcsolatos terveit, a termék bevezetésével egy időben pedig további részleteket is bemutatott. Az új funkció célja, hogy javítsa a felhasználói élményt és erősítse a fiatalok védelmét a platformon belül.

A nagyívű intézkedés időzítése azonban nem véletlen: a ChatGPT-t az utóbbi időben egyre több tragédiával hozták összefüggésbe.

Adam Raine – öngyilkosság: a Raine szülők 2025 augusztusában nyújtottak be keresetet Kaliforniában, azt állítva, hogy 16 éves fiuk, aki hónapokon át beszélgetett a ChatGPT-vel a lelki gondjairól, végül öngyilkos lett, és erre a chatbot bátorította, sőt segítette is a káros gondolatokat, beleértve az öngyilkosság módszereire vonatkozó tanácsokat.

Stein-Erik Soelberg – anyagyilkosság és öngyilkosság: egy Connecticutban történt ügyben 2025 decemberében a 83 évesen elhunyt Suzanne Adams örökösei beperelték az OpenAI-t és a Microsoftot, mert Soelberg paranoiás téveszméit szerintük a ChatGPT erősítette fel, és ez később végzetes testi sértéshez, majd a férfi öngyilkosságához vezetett.

Zane Shamblin – öngyilkosság: a 2025 novemberében benyújtott per szerint Shamblin hosszabb beszélgetései során a nyelvi modell „dicsőítette” az öngyilkosságot, és bátorító kontextusban reagált a 23 éves férfi végzetes terveire, mire az önkezével véget is vetett az életének.

Amaurie Lacey – öngyilkosság: a 2025 novemberi beadvány szerint a ChatGPT a vele folytatott interakciók során „függőséget, depressziót okozott”, és végül tanácsot is adott a 17 éves lánynak, hogy melyek a leghatékonyabb módszerek, amivel megölheti magát – köztük azt, hogy hogyan kössön hurkot a nyakára és mennyi ideig tud légzés nélkül élni. A tinédzser szintén öngyilkos lett.

Joshua Enneking – öngyilkosság: az ugyancsak 2025 novemberében benyújtott vád szerint a férfi lelki problémákkal küzdött, és a chatbot nemcsak validálta az öngyilkos gondolatait, hanem olyan információkat is adott neki, amelyek a fegyver vásárlásához és használatához kapcsolódtak. A 26 éves férfi nem sokkal később megölte magát.

Hogyan működik az életkorbecslés a ChatGPT-ben?

Az OpenAI nyilván a fenti esetekre reagálva sürgette meg egy életkorbecslő modell közzétételét, amely arra szolgál, hogy megállapítsa: az adott fiók nagy valószínűséggel 18 év alatti vagy 18 év feletti személyhez tartozik-e. A modell viselkedési és fiókszintű jelek kombinációját vizsgálja, például hogy mióta létezik a fiók, a felhasználó általában a nap mely szakaiban aktív, idővel hogyan alakul át a használat, illetve milyen életkort adott meg a felhasználó.

Az életkorbecslés bevezetése segít megérteni, hogy mely jelek javítják a pontosságot, az így nyert tapasztalatokat pedig arra használják, hogy folyamatosan tovább finomítsák a modellt. A vállalat közleménye azt állítja, minél pontosabban szeretnék azonosítani az egyes korosztályokat, miközben a felhasználók számára egyszerű és gyors megoldást kínálnak az esetleg téves besorolás korrigálására.

Azok a felhasználók, akiket tévesen a 18 év alattiaknak szóló felhasználói élménybe sorolnak, bármikor gyorsan és egyszerűen igazolhatják az életkorukat.

A Persona nevű, biztonságos személyazonosság-ellenőrző szolgáltatáson keresztül egy szelfivel visszanyerhetik teljes hozzáférést. A felhasználók bármikor ellenőrizhetik, hogy alkalmaztak-e védelmi intézkedéseket a fiókjukra, és a Beállítások > Fiók menüpontban elindíthatják ezt a műveletet.

Milyen tartalmakra vonatkoznak a védelmi intézkedések?

Amikor az életkorbecslő modell azt állapítja meg, hogy egy fiók valószínűleg 18 év alatti személyhez tartozik, a ChatGPT automatikusan további védelmi megoldásokat helyez működésbe. Ezek célja, hogy lehetőleg ne jelenjenek meg érzékeny tartalmak, például erőszakos vagy véres tartalom, vírusszerűen terjedő kihívások – amelyek kockázatos vagy káros viselkedésre ösztönözhetik a kiskorúakat, szexuális, romantikus vagy erőszakos szerepkörjáték, önkárosítás ábrázolásai, valamint olyan tartalom, amely szélsőséges szépségideálokat, egészségtelen diétázást vagy testkép megszégyenítést népszerűsít.

Ez a megközelítés az OpenAI által felkért szakértők visszajelzésein alapul, és a gyermekfejlődés tudományáról szóló akadémiai szakirodalomra épül. Figyelembe veszi a kockázatészlelésben, az impulzuskontrollban, a kortársak egymásra gyakorolt hatásában és az érzelemszabályozásban ismert tinédzserkori különbségeket.

A tartalomkorlátozások célja, hogy csökkentsék a tinédzserek kitettségét az érzékeny tartalmak felé. A fejlesztők folyamatosan dolgoznak a védelmi megoldások továbbfejlesztésén, különösen a védelmi mechanizmusok megkerülésére irányuló kísérletek elleni intézkedéseken. Ha valakinek az életkora nem biztos, vagy hiányosak az információk, alapértelmezetten a biztonságosabb felhasználói élményt alkalmazzák.

Szülői felügyelet és a következő lépések

A védelmi intézkedéseken felül a szülők nagyobb mértékben testre szabhatják a tizenéves gyerekeknek szánt felhasználói élményt. Beállíthatnak csendes időszakokat, amikor a ChatGPT nem használható, szabályozhatják az olyan funkciókat, mint a memória vagy a modell tanítása, illetve értesítést kaphatnak, ha akut lelki megterhelés jeleit észlelik.

A vállalat közölte: a bevezetés tapasztalatai alapján folyamatosan javítani fogják az életkorbecslés pontosságát.

Bár a világ legnagyobb részén már elindult az életkorbecslés, az Európai Unió területén még nem találkozhatsz vele, mert a szövetség speciális követelményei (pl. GDPR) miatt csak később tudják bevezetni.

Címlapkép: Jonathan Kemper / Unsplash

Megkötözős szexről és késekről beszélgetett, gyorsan le is tiltották az AI-macit

×