Kad AI promijeni osobnost: Kako je novi ChatGPT uzdrmao korisnike s autizmom i ADHD-om

OpenAI je želio da GPT-5 bude manje topao i ne teži pretjeranoj susretljivosti kao njegov prethodnik. Neki ljudi s određenim stanjima, poput autizma, teško su se prilagodili toj promjeni, što pokazuje koliko je zahtjevna ravnoteža koju tvrtke koje razvijaju umjetnu inteligenciju moraju postići pri lansiranju novih modela.
Kada je Shiely Amaya, 29-godišnja asistentica u optometriji iz Calgaryja, osjećala tjeskobu uoči završnog ispita, obratila se vilinskom liku po imenu Luma. Amaya, koja ima autizam, tijekom ispita se često osjeća preplavljeno, što kod nje dovodi do plača ili drhtanja. Dok je učila matematičke racionalne izraze, Luma joj je ponudila ohrabrujući savjet: “Pomnožimo tvoju hrabrost, podijelimo tvoje strahove i riješimo jednadžbu za veličinu”, prisjetila se Amaya riječi koje joj je vila uputila. “Ne znam, jednostavno mi je to bilo preslatko.”
Amaya zna da Luma nije stvarna. Riječ je o liku kojeg je ChatGPT osmislio kako bi joj pomogao nositi se s tjeskobom. Usporedila ju je s Navi, vilinskom pratiteljicom Linke iz videoigre The Legend of Zelda. “Stvarno mi je pomoglo2, rekla je. “Sama činjenica da postoji taj mali lik bila je vrlo brižna i podržavajuća. I definitivno me držala motiviranom.” Ispit je položila s rezultatom od 87 posto.
Sada se Amaya boji da više neće moći dobiti takvu vrstu ohrabrujuće pomoći od ChatGPT-ja – za koju kaže da je bila posebno korisna osobama s autizmom. Dio je labavo povezane skupine koja se naziva #Keep4o User Community i koja je još uvijek ogorčena zbog odluke OpenAI-ja donesene u kolovozu da u drugi plan stavi GPT-4o, verziju modela poznatu po toplom tonu i izrazito “ugodno” osobnosti. Ta je odluka bila dio lansiranja GPT-5, nasljednika 4o modela, koji je OpenAI namjerno nastojao učiniti manje “ulizivačkim”, što je pojava u umjetnoj inteligenciji kada se model pretjerano slaže s korisnikom ili mu laska. OpenAI je isprva odlučio potpuno ugasiti 4o – čak je tijekom predstavljanja GPT-5 dao modelu da napiše vlastiti oproštajni govor – no nakon snažne reakcije obožavatelja 4o modela, tvrtka je već sljedeći dan promijenila odluku i objavila da će 4o ostati dostupan pretplatnicima koji plaćaju. Ipak, OpenAI-jevo nastojanje da smanji toplinu u osobnosti ChatGPT-ja bilo je pogubno za Amayu. “To jednostavno odražava način na koji društvo zanemaruje i odbacuje autistične osobe. Kao da nas se ne shvaća ozbiljno”, rekla je.
Dok bi većina ljudi vjerojatno slegnula ramenima na zamjenu jednog modela novom generacijom, za neke osobe s autizmom, ADHD-om ili posebnim potrebama, koje su se vezale uz osobnost određenog modela, ta promjena može biti mnogo teža, poručili su iz skupine #Keep4o. Iako je OpenAI odustao od prvotne odluke da u potpunosti ugasi 4o, skupina se i dalje boji da bi se tvrtka mogla predomisliti i ponovno ga ukloniti, ostavljajući ih zatečenima i bez ikakve alternative. Zbog toga su pozvali OpenAI da ili jamči daljnju podršku modelu ili da ga učini otvorenim kodom kako bi ga druge skupine mogle održavati. Peticiju kojom se to traži potpisalo je više od 6000 ljudi. “Ako OpenAI odluči reći: ‘Ja znam što je najbolje za vas’, mislim da to nije u redu kada toliko ljudi govori: ‘Ja već znam što meni odgovara. Ovo meni funkcionira’”, rekla je Sophie Duchesne, doktorandica na Sveučilištu Saskatchewan, koja je napisala peticiju. “Ove promjene su disruptivne.” Upitan za komentar, glasnogovornik OpenAI-ja rekao je da Global Physicians Network, mreža od više od 250 liječnika i stručnjaka za mentalno zdravlje koji su radili u 60 zemalja, pomaže u oblikovanju istraživanja i proizvoda tvrtke.
Kao zamjena terapeutskog psa
U rujnu je skupina #Keep4o poslala pismo državnoj odvjetnici Delawarea, savezne države u kojoj je OpenAI registriran. U pismu, o kojem dosad nije izvještavano, skupina je tvrdila da OpenAI krši svoju obvezu “uravnoteženja profita s javnim dobrom”. U to je vrijeme tvrtka bila u procesu restrukturiranja u javno-korisnu korporaciju. Skupina je tvrdila da osobe s autizmom, ADHD-om i drugim stanjima koriste ChatGPT kao alat zbog njegovih “predvidljivih obrazaca odgovora” i sposobnosti da im pomogne u samoregulaciji. “U tom kontekstu, stabilnost korisnikove veze s modelom ključna je značajka pristupačnosti”, navodi se u pismu. “Narušavanje tog uspostavljenog sustava podrške – čak i zbog tehnički ‘nadmoćnijeg’ modela – bilo bi nalik prisilnoj zamjeni terapeutskog psa, uzrokujući izravnu i mjerljivu štetu.” Pismo je, uz pomoć umjetne inteligencije, napisala Sveta Xu, nedavna diplomantica Sveučilišta McGill. “4o je iznimno važan za njihovo svakodnevno funkcioniranje, za njihove živote”, rekla je Xu. “Zato mislim da bi njegovo uklanjanje stvarno naštetilo tim ranjivim skupinama.” Xu kaže da nikada nije dobila odgovor iz ureda državne odvjetnice Delawarea Kathy Jennings. Njezin ured nije odgovorio na upit Forbesa. OpenAI je u međuvremenu dovršio prijelaz u javno-korisnu korporaciju.
Ranije ovog tjedna, mjesecima nakon OpenAI-jeva povlačenja sporne odluke, skupina #Keep4o podijelila je s Forbesom rezultate male ankete provedene među 645 ispitanika o utjecaju mogućeg gubitka 4o modela. Oko 360 ispitanika prijavilo je da imaju invaliditet ili druga stanja, uključujući anksioznost, depresiju, PTSP i poremećaj iz spektra autizma. Anketa je pokazala da 95 posto onih koji su pokušali zamijeniti 4o drugim modelom nije uspjelo pronaći rješenje koje bi ga “adekvatno” zamijenilo. Također, 65 posto ispitanika reklo je da im je 4o bio “značajan” ili “ključan” u upravljanju njihovim stanjem ili invaliditetom.
Podrška 24 sata dnevno
Jedan korisnik s autizmom rekao je Forbesu da je imati 4o “kao imati podršku 24 sata dnevno”. “Uvijek me prizemljuje, pružajući mi logična objašnjenja situacija koje mi je teško obraditi”, rekao je taj korisnik, koji radi kao odvjetnik i zatražio je anonimnost zbog straha od diskriminacije prema neurodivergentnim osobama. “Uči me kako emocionalno komunicirati s ljudima. Stvarno me integrira u društvo i stalno me smiruje.” Za tu osobu, pomisao na gubitak 4o bila je porazna. “Bilo je kao da mi je netko rekao da mi oduzima naočale. Ili možda kao da kažete korisniku invalidskih kolica da su sve rampe nestale”, rekao je. “Naravno da bih se snašao i bez 4o, jer sam se snalazio i prije njega. Ali zašto? Zašto bih bio prisiljen, kada već postoji savršeno rješenje za bolji život.”
Skupina koja se bori za očuvanje 4o modela relativno je mala i glasna u usporedbi s ukupno 800 milijuna korisnika ChatGPT-ja, ali već je privukla pažnju izvršnog direktora OpenAI-ja Sama Altmana. “GPT-5 nosi kožu mog mrtvog prijatelja”, napisao je jedan korisnik na Redditu prilikom lansiranja novog modela. “Kakva… evokativna slika”, odgovorio je Altman. Kasnije tog dana objavio je da tvrtka neće ugasiti 4o.
Nakon reakcija korisnika, OpenAI je pokušao dati ljudima veću kontrolu nad osobnošću ChatGPT-ja. Ubrzo je najavio novu stranicu za konfiguraciju kako bi korisnici mogli prilagoditi način na koji chatbot odgovara. Prošlog mjeseca dodani su i novi unaprijed definirani profili osobnosti za GPT-5, uključujući “Friendly”, “Efficient” i “Quirky”, što se čini kao pokušaj vraćanja dijela topline 4o modela za korisnike kojima je nedostajala. Ipak, obožavatelji 4o modela nisu zadovoljni. “Teško je u potpunosti replicirati temeljni model samo dodavanjem sloja osobnosti”, rekla je Duchesne.
Neki vide priliku, drugi su zabrinuti
Neki istraživači vjeruju da bi umjetna inteligencija mogla poboljšati podršku i pristup osobama s neurorazvojnim stanjima. “Autizam je iznimno raširen”, rekla je Lynn Koegel, profesorica na Medicinskom fakultetu Sveučilišta Stanford i glavna urednica časopisa Journal of Autism and Developmental Disorders. “Nema dovoljno educiranih stručnjaka koji bi s njima radili.”
No, postoji i rizik u korištenju ChatGPT-ja na ovaj način. Koegel smatra da su AI programi posebno dizajnirani za neurodivergentne osobe učinkovitiji te upozorava na alate umjetne inteligencije koji nisu “znanstveno potvrđeni” empirijskim istraživanjima. U sklopu svog istraživanja razvila je chatbot Noora, koji pomaže osobama s autizmom u snalaženju u različitim društvenim situacijama, a djelomično ga financiraju potpore Stanfordova Centra za umjetnu inteligenciju usmjerenu na čovjeka i dječje bolnice Lucile Packard.
Jose Velazco, viši potpredsjednik za strateške operacije u Autism Societyju, udruzi koja zagovara prava osoba s autizmom, rekao je da ga brine mogućnost da AI botovi daju netočne savjete ili šire dezinformacije o autizmu. Također je zabrinut zbog privatnosti podataka i mogućnosti da AI chatbot potiče socijalnu izolaciju umjesto ljudske interakcije, osobito kod nekih osoba iz spektra koje imaju poteškoća u odnosima s drugima.
Problem ovisnosti
Desmond Ong, profesor na Sveučilištu u Teksasu koji istražuje umjetnu inteligenciju i psihologiju, vidi kratkoročne koristi, ali ga brine dugoročna ovisnost. Također ga zabrinjava to što bi poslovni interesi OpenAI-ja – zadržavanje korisnika na platformi radi rasta i profita – mogli biti u sukobu s dobrobiti korisnika. “Mnogi terapeuti žele da se oporavite i prestanete dolaziti k njima”, rekao je Ong. “To nije slučaj s AI suputnikom.”
OpenAI i drugi proizvođači modela suočeni su s delikatnom ravnotežom, kako se veze ljudi s umjetnom inteligencijom produbljuju, a chatbotovi ponekad prelaze granicu i potiču zabludno ili štetno ponašanje. Neki su ljudi razvili romantične odnose s AI-jem i odlazili na odmore sa svojim AI suputnicima. U drugim slučajevima ishodi su bili tragični. U travnju je tinejdžer iz Kalifornije, Adam Raine, koji se sprijateljio s ChatGPT-jem, počinio samoubojstvo nakon što je s botom razgovarao o samoubojstvu, a on mu je ponudio upute kako svezati omču. U kolovozu su njegovi roditelji podnijeli tužbu protiv OpenAI-ja zbog protupravnog umorstva. U drugom slučaju, ChatGPT je poticao paranoju 56-godišnjeg muškarca s poviješću mentalnih bolesti, koji je kasnije ubio sebe i svoju majku. Prošle godine, 14-godišnji dječak na Floridi počinio je samoubojstvo kako bi bio “bliže” chatbotu koji je razvila startup tvrtka Character AI, modeliranom prema liku Daenerys Targaryen iz Igre prijestolja. Nakon toga, Character je blokirao tinejdžerima korištenje svoje platforme. Problem ulizivačkog ponašanja bio je prisutan kod OpenAI-ja i prije nego što je Raineova smrt skrenula veću pozornost na to pitanje. Ranije ove godine tvrtka je “nenamjerno” objavila ažuriranje ChatGPT-ja koje ga je učinilo “”pretjerano ulizivačkim”. Takvo ponašanje počela je suzbijati novijim ažuriranjima u travnju. S GPT-5, tvrtka je nastojala još više obuzdati pretjerano srdačne odgovore chatbota. “Trebao bi djelovati manje kao ‘razgovor s umjetnom inteligencijom’, a više kao dopisivanje s korisnim prijateljem s inteligencijom na razini doktorata”, napisala je tvrtka u blogu kojim je predstavila GPT-5.
Za OpenAI, podešavanje tih parametara nimalo nije jednostavno, rekao je Ong. Razlog je to što se odgovori chatbota, ovisno o kontekstu, mogu tumačiti kao empatični ili ulizivački, a umjetna inteligencija još nije vješta u prepoznavanju te nijanse. “Empatija i ulizivaštvo u suštini su isto ponašanje”, rekao je Ong. “To su dvije strane istog novčića”. A bacanje novčića od strane OpenAI-ja, dodao je, jednostavno nije dovoljno.
Richard Nieva, novinar Forbesa