Si të zvogëloni rreziqet nga mëkati origjinal i AI

(Michelle Kondrich/The Washington Post)

Mjetet e reja të inteligjencës artificiale premtojnë të lëshojnë një valë inovacioni. Të pakontrolluara, të njëjtat mjete kërcënojnë të na mbushin me dezinformata dhe gënjeshtra.

ChatGPT, më i popullarizuari nga mjetet gjeneruese të AI, automatizon krijimin e shkrimit në nivel njerëzor.

Ai e bën këtë duke parashikuar gjënë më të mundshme që një qenie njerëzore do të kishte shkruar më pas në një situatë të caktuar.

Rezultatet – siç do të dëshmojnë shumë komentues pa frymë – janë mbresëlënëse, nga tekstet akademike me tinguj të besueshëm e deri te sonetet shekspiriane të krijuara vetëm nga udhëzimet e shkurtra të shkruara në anglishte të thjeshtë.

Por ato janë po aq të mira sa materiali me të cilin duhet të punojnë. Këto platforma ekstrapolohen nga korpusi i madh i tekstit që është ngarkuar në internet gjatë dekadave të fundit.

Duke pasur parasysh atë që njerëzimi në të vërtetë ka shkruar në ato vite, këto të dhëna hyrëse mund të shkaktojnë rezultate shqetësuese. Kjo varion nga deklaratat faktike të rreme deri te paragjykimet e drejtpërdrejta kundër pakicave.

Demonstrimi i vonuar dhe i kufizuar i Bard, konkurrenti ChatGPT i krijuar nga ekipi i nderuar i AI i Google, dha një pretendim astronomik të diskutueshëm në daljen e tij të parë.

Ndërkohë, rezulton se algoritmet e krijuara për t’iu përgjigjur pyetjeve dhe për t’iu përgjigjur tingullit njerëzor do të shkurtojnë qoshet për të përmbushur këtë direktivë kryesore – “halucinojnë” ose bëjnë përgjigjet e tyre nëse është e nevojshme.

 E njëjta pyetje e bërë dy herë mund të nxjerrë dy përgjigje rrënjësisht të ndryshme. Të dyja të artikuluara me një ton po aq të sigurt.

Kjo masë dezinformimi nuk kërkon as aktorë të këqij. Çdo fëmijë që vendos që ChatGPT mund të bëjë detyrat e shtëpisë për të ose për çdo të rritur në një afat kohor, rrezikon të bëhet një vektor për infeksion.

Përmbajtja e krijuar nuk përputhet ende me produktin më të mirë njerëzor. Por shpejtësia, shkalla dhe kostoja e ulët u japin algoritmeve një avantazh të madh.

Sistemet e fuqizuara nga AI që prodhojnë përmbajtje të personalizuar sa hap e mbyll sytë janë të pozicionuar mirë për të dominuar platformat e shpërndarjes së përmbajtjes – si TikTok, Twitter, Google dhe Facebook – që ndërmjetësojnë gjithnjë e më shumë zgjedhjet tona të konsumit të medias.

Pjesa më e madhe e përmbajtjes së ardhshme në internet do të prodhohet nga AI. Nga ana tjetër, kjo përmbajtje do të trajnojë familjen e ardhshme të mjeteve gjeneruese të AI.

Ky është padyshim një rrezik i rëndësishëm – dhe është i njohur, i ngjashëm me betejën e rrjeteve sociale me urrejtjen në internet.

Kur një algoritëm ndërtohet për të bërë diçka – për të maksimizuar vëmendjen ose për të krijuar fjalë të këndshme – atëherë kjo është ajo që do të jetë e paracaktuar. Ky është mëkati origjinal që kërcënon të ndotë burimin e ri përrallor të pasurisë që përfaqëson AI gjeneruese.

Sam Altman, shefi ekzekutiv i OpenAI, kompania jofitimprurëse e kthyer fitimprurëse që ndërtoi ChatGPT, i kupton qartë rreziqet që paraqesin sistemet e reja. Fokusi i tij do të thotë se disa nga njerëzit më të zgjuar në planet, të mbështetur nga burime pothuajse të pakufizuara, po punojnë për këtë.

Ata janë në një garë: Një fushë e re hakerimi – sulme të menjëhershme me injeksion – kushtuar heqjes së parmave programatike në ChatGPT është shfaqur.

Nëse skuadrat e Altman nuk ia dalin, efekti do të jetë ta kthejmë botën tonë të informacionit në kokë.

Kontrolluesit e fakteve aktualisht kërkojnë të identifikojnë, izolojnë dhe korrigjojnë shpërthimet e “lajmeve të rreme”.

Në të ardhmen, mund të na duhet të supozojmë se gjithçka është e infektuar derisa të vërtetohet e kundërta.

Pra, çfarë mund të bëhet? 

Mjete të tilla si ChatGPT duhet të gjejnë vendin e tyre në hierarkinë e informacionit, në mënyrë ideale si një pjesë e përparme bashkëbiseduese për sistemet e rikthimit të informacionit me cilësi të lartë, siç shpreson të bëjë aleanca aktuale me motorin e kërkimit Bing të Microsoft.

Një ide është të identifikohen burime të besueshme informacioni higjienike, prejardhja, procesi dhe kultura editoriale e të cilave mund të besohen dhe madje të auditohen.

Këto mund të ofrojnë trajnimin dhe të dhënat burimore për mjetet e kontrollit të fakteve në internet që do të duhet të bëhen po aq të përhapura sa është aktualisht softueri për kontrollin e drejtshkrimit.

Por kjo nuk do të jetë një ilaç – nëse asgjë tjetër, automatizimi i një kontrolli të fakteve është shumë më kompleks nga pikëpamja llogaritëse sesa gjenerimi i një pretendimi të besueshëm.

Për më tepër, kush vendos se çfarë është e vërtetë është gjithmonë një çështje politike. Ai është ekzistencial në autokraci dhe i lihet kryesisht tregut në demokraci.

Organizatat që kontrollojnë faktet mund të bëhen pika grumbullimi për këtë bisedë, duke sjellë zëra përtej komercialeve dhe të fuqishmëve në tryezë.

Shoqëritë demokratike duhet të përmirësojnë lojën tonë, shpejt. Ne, për shembull, mund të shohim Finlandën, ku ata edukojnë në mënyrë proaktive qytetarët e tyre si për dezinformimin ashtu edhe për AI.

Kjo shihet si një komponent kritik i sigurisë së brendshme dhe qytetarisë së shekullit të 21-të. Inteligjenca artificiale po bëhet shumë e mirë në dhënien e përgjigjeve – si njerëz, ne duhet të trajnojmë veten që të vazhdojmë të bëjmë pyetjet e duhura.

Nëse mund të shfletojmë valën gjeneruese të AI, atëherë ajo mund të na çojë ende në një revolucion në produktivitet, arsim dhe madje edhe gjendjen njerëzore.

Por dallgët mund të jenë të rrezikshme – dhe ne ende nuk dimë të notojmë.

Të fundit nga rubrika