The Guardian
Liderët politikë së shpejti mund të përdorin “ushtri” agjentësh të Inteligjencës Artificiale, të aftë të imitojnë njerëzit, për të ndikuar dhe formësuar opinionin publik në mënyra që rrezikojnë seriozisht demokracinë. Kështu paralajmëron një grup me profil të lartë ekspertësh ndërkombëtarë në fushën e Inteligjencës Artificiale dhe dezinformimit online.
Mes tyre është aktivistja për lirinë e shprehjes dhe fituesja e Çmimit Nobel për Paqe, Maria Ressa, si dhe studiues kryesorë të IA-së dhe shkencave sociale nga universitete prestigjioze si Berkeley, Harvard, Oxford, Cambridge dhe Yale. Ata janë pjesë e një konsorciumi global që ngre alarmin për një kërcënim të ri, të cilin e përshkruajnë si “shkatërrues”: përdorimin e “ushtrive” keqdashëse të IA-së, të vështira për t’u zbuluar, që pushtojnë rrjetet sociale dhe platformat e komunikimit.
Ekspertët paralajmërojnë se një lider autoritar mund t’i përdorë këta agjentë artificialë për të bindur popullatat të pranojnë zgjedhje të anuluara ose për të minuar e përmbysur rezultatet zgjedhore.
Sipas parashikimeve, kjo teknologji mund të përdoret gjerësisht që në vitin 2028, përfshirë edhe zgjedhjet presidenciale në Shtetet e Bashkuara.
Paralajmërimet, të publikuara në revistën shkencore Science, shoqërohen me thirrje për një veprim të koordinuar global për të përballuar këtë rrezik.
Masat e propozuara përfshijnë përdorimin e “flotave kundër-agjentësh” dhe krijimin e përmbajtjeve të markuara qartë për të luftuar fushatat dezinformuese të drejtuara nga Inteligjenca Artificiale. Forma më të hershme të këtyre metodave janë përdorur tashmë gjatë zgjedhjeve të vitit 2024 në Tajvan, Indi dhe Indonezi.
“Një kërcënim shkatërrues po shfaqet: turma agjentësh të Inteligjencës Artificiale që bashkëpunojnë në mënyrë keqdashëse,” shkruajnë autorët.
“Këto sisteme janë të afta të koordinohen autonomisht, të depërtojnë në komunitete dhe të krijojnë konsensus artificial. Duke imituar dhe përshtatur dinamikat sociale njerëzore, ato përbëjnë një rrezik serioz për demokracinë.”
Inga Trauthig, një nga ekspertet kryesore të teknologjisë së propagandës, thekson se përhapja e kësaj teknologjie mund të ngadalësohet nga hezitimi i politikanëve për t’ua lënë fushatat zgjedhore nën kontroll të plotë sistemeve të Inteligjencës Artificiale.
Një tjetër arsye për skepticizëm, sipas saj, është frika se përdorimi i këtyre teknikave të paligjshme mund të mos ia vlejë rrezikun, duke qenë se votuesit vazhdojnë të ndikohen më shumë nga materialet jashtë internetit.
Mes ekspertëve që qëndrojnë pas këtij paralajmërimi është edhe Gary Marcus nga Universiteti i Nju Jorkut, një skeptik i njohur ndaj potencialit të pretenduar të modeleve aktuale të IA-së, i cili e përshkruan veten si një “realist të Inteligjencës Artificiale gjenerative”.
Po ashtu, pjesë e grupit është edhe Audrey Tang, ministrja e parë digjitale e Tajvanit, e cila paralajmëron se forcat autoritare po minojnë proceset zgjedhore, po e kthejnë IA-në në armë dhe po shfrytëzojnë pikat e forta të shoqërive demokratike kundër tyre.
Mes ekspertëve të tjerë janë David Garcia, profesor i shkencës së të dhënave sociale dhe të sjelljes në Universitetin e Konstanzës; Sander van der Linden, ekspert i dezinformimit dhe drejtor i laboratorit të vendimmarrjes sociale në Universitetin e Cambridge; si dhe Christopher Summerfield, studiues i IA-së dhe profesor i neuroshkencës njohëse në Universitetin e Oksfordit.
Sipas tyre, liderët politikë mund të përdorin një numër pothuajse të pakufizuar agjentësh të Inteligjencës Artificiale, të maskuar si njerëz realë në internet, për të depërtuar me saktësi në komunitete të caktuara, për të mësuar gradualisht dobësitë e tyre dhe për të përhapur gënjeshtra gjithnjë e më bindëse dhe të personalizuara, me synim ndryshimin e opinionit publik në shkallë të gjerë shoqërore.
Kërcënimi po fuqizohet edhe më shumë nga përparimet në aftësinë e IA-së për të kuptuar tonin dhe përmbajtjen e diskutimeve online. Këta agjentë po bëhen gjithnjë e më të aftë të imitojnë sjelljen njerëzore, duke përdorur zhargonin e duhur dhe duke postuar në mënyrë të parregullt për të shmangur zbulimin. Përparimet në zhvillimin e këtyre sistemeve nënkuptojnë gjithashtu aftësinë për të planifikuar dhe koordinuar veprime në mënyrë autonome.
Përveç aktivitetit në rrjetet sociale, këta agjentë mund të përdorin edhe aplikacione mesazhesh, blogje dhe email, në varësi të kanalit që Inteligjenca Artificiale vlerëson si më efektivin për arritjen e një qëllimi të caktuar, shpjegon Daniel Thilo Schroeder, studiues në institutin kërkimor Sintef në Oslo.
“Është vërtet frikësuese sa e lehtë është të krijosh ushtri të vogla botësh që mund të lundrojnë në rrjetet sociale dhe përmes email-it dhe t’i përdorin këto mjete për qëllime keqdashëse,” thotë Schroeder, i cili ka simuluar sjelljen e tyre në kushte laboratorike.
Jonas Kunst, profesor i komunikimit në BI Norwegian Business School, paralajmëron se nëse këta botë fillojnë të veprojnë si një kolektiv dhe të shkëmbejnë informacion për të zgjidhur një problem – në këtë rast një qëllim keqdashës, si analizimi i një komuniteti dhe gjetja e pikave të dobëta – atëherë koordinimi do të rrisë ndjeshëm saktësinë dhe efikasitetin e tyre.
“Ky është një kërcënim shumë serioz, që ne parashikojmë se do të materializohet,” thekson ai.
Në Tajvan, ku qytetarët shpesh janë në shënjestër të propagandës kineze pa e kuptuar, botët e Inteligjencës Artificiale kanë rritur ndjeshëm ndërveprimin me përdoruesit në platforma si Facebook dhe Threads gjatë dy deri në tre muajve të fundit, sipas Puma Shen, deputet i Partisë Demokratike Progresive dhe aktivist kundër dezinformimit kinez.
Gjatë debateve politike, këta agjentë priren të ofrojnë sasi të mëdha informacioni të paverifikueshëm, duke krijuar “mbingarkesë informacioni”.
Shen thotë se ata mund të citojnë edhe artikuj të rremë që pretendojnë se Shtetet e Bashkuara do ta braktisin Tajvanin.
Një tjetër prirje e fundit është që botët e IA-së t’u theksojnë të rinjve tajvanezë se konflikti Kinë–Tajvan është tepër i ndërlikuar dhe se nuk duhet të marrin anë pa pasur njohuri të mjaftueshme.
“Ata nuk thonë drejtpërdrejt se Kina është e shkëlqyer, por po nxisin neutralitet,” i tha Shen gazetës The Guardian. “Kjo është shumë e rrezikshme, sepse krijon idenë se njerëz si unë janë radikalë.”
Ndërkohë, disa ekspertë vërejnë se përparimi i teknologjisë së Inteligjencës Artificiale nuk ka qenë aq i shpejtë sa kanë pretenduar kompani të Silicon Valley si OpenAI dhe Anthropic. Për këtë arsye, The Guardian u kërkoi ekspertëve të pavarur të vlerësonin këto paralajmërime.
“Në vitin 2024, kur pati shumë zgjedhje, aftësitë për mikro-targetim të drejtuar nga IA-ja ekzistonin, por nuk pamë përdorim në shkallën që ishte parashikuar,” thotë Trauthig, këshilltare e Panelit Ndërkombëtar për Mjedisin Informativ. “Shumica e propagandistëve politikë ende përdorin teknologji më të vjetra.”
Megjithatë, Michael Wooldridge, profesor i bazave të Inteligjencës Artificiale në Universitetin e Oksfordit, thekson se ky skenar është plotësisht i besueshëm nga pikëpamja teknike. “Është krejt e mundur që aktorë keqdashës të përpiqen të mobilizojnë ushtri virtuale agjentësh të fuqizuar nga modele të mëdha gjuhësore për të prishur zgjedhjet dhe për të manipuluar opinionin publik. Teknikisht kjo është e realizueshme – teknologjia është përmirësuar gradualisht dhe është bërë shumë më e aksesueshme.”/©SYRI.net