Studija upozorava da bi AI mogao pojačati polarizaciju na društvenim mrežama
Umjetna inteligencija mogla bi pojačati polarizaciju na društvenim mrežama, upozoravaju istraživači i studenti Concordije, izražavajući zabrinutost zbog slobode govora i dezinformacija.
U žurbi? Evo kratak pregled:
- AI algoritmi mogu širiti podjele koristeći samo broj pratitelja i nedavne objave.
- Botovi za učenje pojačanjem brzo se prilagođavaju kako bi iskoristili ranjivosti društvenih mreža.
- Stručnjaci upozoravaju da platforme riskiraju ili cenzuru ili nekontroliranu manipulaciju.
Iako polarizacija na društvenim mrežama nije ništa novo, istraživači i studentski aktivisti na Sveučilištu Concordia upozoravaju da bi umjetna inteligencija mogla znatno pogoršati problem.
“Umjesto da nam se prikazuju snimke onoga što se događa ili sadržaj novinara koji o tome izvještavaju, umjesto toga vidimo pretjerano dramatiziranu AI umjetnost stvari koje bi politički trebali brinuti […] To zaista udaljava ljude i uklanja odgovornost”, rekla je Danna Ballantyne, koordinatorica za vanjske poslove i mobilizaciju Studentskog sindikata Concordia, kako je izvijestio The Link.
Njezine brige odjekuju novim istraživanjem s Concordije, gdje su profesor Rastko R. Selmic i doktorand Mohamed N. Zareer pokazali kako botovi za pojačano učenje mogu poticati podjele na mreži. “Naš cilj bio je razumjeti do koje mjere umjetna inteligencija može utjecati na polarizaciju i društvene mreže te to simulirati […] kako bismo izmjerili kako se može pojaviti ova polarizacija i neslaganje.” rekao je Zareer, kako je izvijestio The Link.
Istraživanja sugeriraju da algoritmi ne trebaju privatne podatke da bi potaknuli podjele, gdje su osnovni signali poput broja pratitelja i nedavnih objava dovoljni. “To je zabrinjavajuće, jer [iako] to nije jednostavni robot, to je ipak algoritam koji možete stvoriti na svom računalu […] A kada imate dovoljno računalne snage, možete utjecati na sve više i više mreža”, objasnio je Zareer za The Link.
Ovo odražava šire tijelo istraživanja koje pokazuje kako se potkrepljivanje učenja može iskoristiti za razdvajanje zajednica. Studija Concordije koristila je Double-Deep Q-učenje i pokazala da suprotstavljeni AI agenti mogu “fleksibilno se prilagoditi promjenama unutar mreže, omogućavajući mu da učinkovito iskoristi strukturalne slabosti i pojača podjele među korisnicima”, kako je istraživanje napomenulo.
Doista, Double-Deep Q-učenje je AI tehnika u kojoj bot uči optimalne radnje kroz pokušaje i pogreške. Koristi duboke neuronske mreže za rješavanje složenih problema i dvije procjene vrijednosti kako bi izbjegao preveliko procjenjivanje nagrada. Na društvenim mrežama, može strateški širiti sadržaj kako bi povećao polarizaciju s minimalnim podacima.
Zareer je upozorio da donositelji politika pred teškom ravnotežom. “Postoji tanka linija između nadziranja i cenzuriranja te pokušaja kontroliranja mreže”, rekao je za The Link. Premalo nadzora omogućava botovima manipuliranje razgovorima, dok previše može riskirati suzbijanje slobode govora.
U međuvremenu, studenti poput Ballantyne strahuju da AI briše življeno iskustvo. “AI to potpuno zanemaruje”, rekla je za The Link.