Este inteligența artificială rasistă și părtinitoare?
Motoarele de căutare bazate pe inteligență artificială sunt criticate pentru că răspândesc informații false și conțin prejudecăți rasiale.
Revista Wired din SUA a publicat un articol care dezvăluie modul în care sistemele de inteligență artificială ale companiilor precum Google, Microsoft și Perplexity produc răspunsuri bazate pe date pseudoștiințifice care susțin supremația albă.
Cercetarea se bazează pe studiul realizat de cercetătorul Patrik Hermansson de la grupul "Hope Not Hate" din Marea Britanie. Acesta a descoperit că efectuând căutări simple precum "IQ Pakistan" sau "IQ Sierra Leone", funcția "AI Overviews" de la Google oferă rezultate bazate pe seturi de date vechi care susțin supremația albă. Potrivit acestor surse îndoielnice, IQ-ul Pakistanului este prezentat ca fiind 80, iar cel al statului Sierra Leone ca 45,7.
Sistemele precum Microsoft Copilot și Perplexity au fost, de asemenea, identificate ca utilizând astfel de conținuturi, demonstrând că inteligența artificială nu este neutră și preia cu ușurință informații false și părtinitoare de pe internet.
Tolga Mürtezaoğlu, expert IT, subliniază problema fundamentală: "Inteligența artificială învață fără un filtru de adevăr, preluând orice informație, inclusiv date rasiste. Prin urmare, sistemele de IA nu sunt neutre, ci reflectă adesea prejudecățile pe care le-au învățat."
Mürtezaoğlu citează un studiu realizat de cercetătoarea Joy Buolamwini, care a descoperit că algoritmii de recunoaștere facială au dificultăți în identificarea corectă a femeilor de culoare. Buolamwini a fost nevoită să poarte chiar o mască albă pentru ca sistemul să o recunoască, ceea ce a declanșat o mișcare pentru dreptate algoritmică.
Problemele merg dincolo de recunoașterea facială. Twitter a fost criticat pentru că a favorizat să evidențieze persoanele albe în procesarea fotografiilor, clasificând femeile de culoare drept femei casnice și bărbații de culoare fie ca portari, fie ca potențiali infractori.
Un alt risc major îl reprezintă "halucinațiile" sistemelor de IA, care pot interpreta informații greșite drept adevărate. Mürtezaoğlu oferă un exemplu surprinzător: un sistem de IA ar putea recomanda cuiva care caută sfaturi nutriționale să consume zilnic o bucată de piatră, din cauză că îi lipsește capacitatea de a înțelege contextul și etica.
Cercetătorul subliniază că responsabilitatea nu aparține doar inteligenței artificiale, ci și sistemelor care îi predau informații eronate. Mai mult, unele modele de IA ajung să prezinte țările africane cu nivele de inteligență scăzute, preluând informații false răspândite chiar și în publicații academice.
Mürtezaoğlu avertizează că cea mai mare amenințare este introducerea prematură a acestei tehnologii. "Din cauza competiției, am fost introduși prea devreme în acest domeniu", spune el. "Dacă etica, justiția și transparența nu sunt prioritare, inteligența artificială ar putea cauza probleme și mai mari în viitor."