Umjetna inteligencija danas se često opisuje kao tehnologija koja će "otvoriti više prilika za više ljudi nego ijedna u povijesti". No takve tvrdnje preskaču ključno pitanje: u čijem se društvenom i političkom kontekstu te prilike stvaraju.

Umjetna inteligencija ne nastaje u vakuumu. Ona se trenira na jeziku, zakonima, medijima i društvenim obrascima svijeta kakav jest - a taj svijet prema LGBT osobama još uvijek nije neutralan.

Jedan od najraširenijih mitova o umjetnoj inteligenciji jest da je objektivna. U stvarnosti, algoritmi uče iz postojećih podataka, a ti su podaci duboko obilježeni heteronormativnim i cisnormativnim pretpostavkama. Brojna istraživanja pokazuju da automatizirani sustavi za moderiranje sadržaja često pogrešno označavaju LGBT teme kao "osjetljive", "neprimjerene" ili potencijalno štetne, čak i kad je riječ o osobnim iskustvima, edukaciji ili afirmativnom sadržaju. Studija objavljena na escholarship.org pokazuje kako AI sustavi ne uspijevaju razlikovati govor mržnje od queer samoopisivanja i identitetskog jezika, zbog čega dolazi do prekomjernog uklanjanja LGBT sadržaja.

Takva pogreška nije trivijalna. Algoritamska moderacija ne djeluje selektivno ili sporadično, nego masovno i kontinuirano. U praksi to znači da se queer sadržaj često uklanja automatski, bez ljudske provjere i bez jasnog obrazloženja. Izvješće organizacije GLAAD o sigurnosti LGBT osoba na društvenim mrežama upozorava da su automatizirani sustavi osobito loši u razumijevanju konteksta, zbog čega LGBT objave nerijetko bivaju sankcionirane dok govor mržnje, ako je formuliran "uljudno" ili birokratski, prolazi neprimijećeno.

Stvarne posljedice, osobito za mlade LGBT osobe u konzervativnim sredinama

Posebno je problematičan način na koji se u tehničkim pravilima platformi koriste pojmovi poput sigurnosti, neutralnosti i zaštite djece. U teoriji, riječ je o univerzalnim vrijednostima; u praksi, one se često pretvaraju u filtere koji LGBT identitete guraju u kategoriju "problematičnog sadržaja". Na platformama poput Instagrama i TikToka queer kreatori već godinama upozoravaju na tzv. shadowbananje, smanjivanje dosega i uklanjanje sadržaja bez jasnog kršenja pravila.

Fenomen "algogovora", gdje korisnici namjerno mijenjaju jezik kako bi izbjegli algoritamske kazne, nastao je upravo kao odgovor na automatizirane sustave koji ne razumiju društveni i kulturni kontekst.

Ovakva algoritamska nevidljivost ima stvarne posljedice, osobito za mlade LGBT osobe u konzervativnim sredinama. Digitalni prostor često je jedino mjesto gdje mogu pronaći informacije, zajednicu i osjećaj da nisu same. Kad AI sustavi taj sadržaj brišu ili ga čine nevidljivim, posljedice su psihološke i društvene, a ne apstraktne ili teorijske.

Problem se dodatno produbljuje u državama u kojima su LGBT prava već pod političkim napadom. Tamo se umjetna inteligencija sve češće koristi kao alat nadzora, filtriranja obrazovnih sadržaja i praćenja aktivizma. Umjesto futurističke vizije napretka, AI u tim kontekstima postaje učinkovit mehanizam tihe represije – jeftin, skalabilan i teško osporiv.

Trans i nebinarne osobe češće percipiraju AI kao prijetnju

Stoga ne iznenađuje da istraživanja pokazuju kako transrodne, nebinarne i druge rodne manjine imaju znatno niže povjerenje u umjetnu inteligenciju od opće populacije. Studija Sveučilišta u Michiganu pokazala je da trans i nebinarne osobe češće percipiraju AI kao prijetnju, osobito zbog pitanja privatnosti, pogrešne klasifikacije identiteta i mogućnosti nenamjernog "otkrivanja" nečije seksualne ili rodne pripadnosti putem podataka.

Slične razloge za zabrinutost potvrđuje i anketa organizacije LGBT Tech, prema kojoj velik broj LGBT osoba smatra da su algoritamski sustavi pristrani i da ih nesrazmjerno često pogađaju negativne posljedice automatizirane moderacije.

Sve to vodi do ključnog pitanja: tko zapravo sudjeluje u oblikovanju pravila umjetne inteligencije? Etika AI-ja danas se uglavnom definira u korporativnim i institucionalnim okvirima u kojima queer perspektiva rijetko ima stvarnu težinu. Bez aktivnog uključivanja LGBT zajednice, umjetna inteligencija neće biti alat oslobođenja, nego sustav koji postojeće društvene nepravde čini bržima, tišima i učinkovitijima.

Umjetna inteligencija sama po sebi neće odlučiti na čijoj je strani. No odluke o tome tko piše pravila, tko trenira modele i čije se iskustvo smatra "rubnim", već se donose.

* Ovaj tekst sufinanciran je sredstvima Fonda za poticanje pluralizma i raznovrsnosti elektroničkih medija.

Podrži Crol donacijom :)

qrcode 9c3b0d27 127a 4867 a764 f80c95d6f267

Cookies make it easier for us to provide you with our services. With the usage of our services you permit us to use cookies.