• |
ide | kryesore

Intervista/ A duhet të kemi frikë nga inteligjenca artificiale

Arkiva, F1, Planet
artificiale



*Intervistë e The New York Times me pioneren e inteligjencës artificiale, Yejin Choi 

Inteligjenca artificiale (AI) nxit ambiciet tona më të mëdha dhe frikërat më të thella si thuajse asnjë teknologji tjetër. Është sikur çdo premtim vezullues dhe prometean i makinerive të afta të kryejnë detyra me shpejtësi dhe me aftësi të cilat ne vetëm mund të ëndërrojmë, mbart me vete një makth të zhvendosjes dhe vjetërsimit njerëzor. Por pavarësisht zbulimeve të kohëve të fundit të A.I. në zbulimet në sferat e gjuhës dhe artit pamor të mbizotëruar më parë nga njerëzit, kompozimet në prozë të modelit gjuhësor GPT-3 dhe krijimet vizuale të sistemit DALL-E 2 kanë tërhequr një interes të madh, shqetësimet tona më të rënda ndoshta duhet të qetësohen. Të paktën kështu është sipas shkencëtares kompjuterike Yejin Choi, një përfituese e grantit prestigjioz të MacArthur “gjeniut” në vitin 2022, e cila ka bërë kërkime novatore për zhvillimin e sensit të përbashkët dhe arsyetimit etik në A.I. “Ka pak zhurmë rreth potencialit të A.I. dhe frikës për të,”, pranon Choi, e cila është 45 vjeç. Që nuk do të thotë historia e njerëzve dhe A.I. do të jetë pa surpriza. “Ka ndjenjën e aventurës,” thotë Choi për punën e saj. “Ju jeni duke eksploruar këtë territor të panjohur. Ti sheh diçka të papritur dhe më pas ndjen sikur dua të zbuloj se çfarë tjetër ka atje!”

Cilat janë keqkuptimet më të mëdha që njerëzit kanë ende për A.I.? Ata bëjnë përgjithësime të nxituara. “Oh, GPT-31 mund të shkruajë këtë artikull të mrekullueshëm në blog. Ndoshta GPT-4 do të jetë një redaktor i New York Times Magazine.” [Qesh.] Nuk mendoj se mund të zëvendësojë dikë atje, sepse nuk ka një kuptim të vërtetë për sfondin politik dhe kështu nuk mund të shkruaj vërtet diçka të rëndësishme për lexuesit. Pastaj janë shqetësimet për ndjenjat e A.I. Ka gjithmonë njerëz që besojnë në diçka që nuk ka kuptim. Njerëzit besojnë në kartat tarot. Njerëzit besojnë në teoritë e konspiracionit. Pra, sigurisht që do të ketë njerëz që besojnë në ndjeshmërinë e A.I.

E di që kjo është ndoshta pyetja më klishe e mundshme për t’ju bërë, por gjithsesi do ta bëj: A do të krijojnë ndonjëherë njerëzit inteligjencë artificiale të ndjeshme? Mund të ndryshoj mendje, por aktualisht jam skeptik. Unë mund të shoh që disa njerëz mund të kenë atë përshtypje, por kur punon kaq afër me A.I., sheh shumë kufizime. Ky eshte problemi. Nga larg, duket sikur, o Zot! Nga afër i shoh të gjitha të metat. Sa herë që ka shumë modele, shumë të dhëna, A.I. është shumë i mirë në përpunimin e kësaj — disa gjëra si loja Go ose shahu. Por njerëzit kanë këtë tendencë për të besuar se nëse A.I. mund të bëjë diçka të zgjuar si përkthimi apo shahu, atëherë duhet të jetë vërtet i mirë edhe në të gjitha gjërat e lehta. E vërteta është, ajo që është e lehtë për makinat mund të jetë e vështirë për njerëzit dhe anasjelltas. Do të habiteni se si A.I. lufton me gjërat më bazike që thjesht bëjnë sens. Është cmenduri.

A mund të shpjegoni se çfarë do të thotë “arsyeja e shëndoshë” në kontekstin e mësimdhënies tek A.I.? Një mënyrë për ta përshkruar atë është se sensi i përbashkët është çështja e errët e inteligjencës. Çështja normale është ajo që shohim, ajo me të cilën mund të ndërveprojmë. Ne menduam për një kohë të gjatë se kjo ishte ajo që ishte atje në botën fizike – dhe vetëm kaq. Rezulton se është vetëm 5 përqind e universit. Nëntëdhjetë e pesë për qind është materie e errët dhe energji e errët, por është e padukshme dhe jo drejtpërdrejt e matshme. Ne e dimë se ekziston, sepse nëse nuk ekziston, atëherë çështja normale nuk ka kuptim. Pra, ne e dimë se është atje, dhe ne e dimë se ka shumë prej saj. Ne po arrijmë në këtë realizim me sens të përbashkët. Është njohuria e pashprehur, e nënkuptuar që ju dhe unë kemi. Është aq e qartë sa shpesh nuk flasim për të. Për shembull, sa sy ka një kal? Dy. Ne nuk flasim për këtë, por të gjithë e dinë. Ne nuk e dimë pjesën e saktë të njohurive që ju dhe unë kemi, për të cilat nuk kemi folur – por ende e dimë – por spekulimi im është se ka shumë. Më lejoni t’ju jap një shembull tjetër: ju dhe unë e dimë se zogjtë mund të fluturojnë, dhe ne e dimë se pinguinët në përgjithësi nuk munden. Pra studiuesit e A.I. menduan, ne mund ta kodojmë këtë: zogjtë zakonisht fluturojnë, përveç pinguinëve. Por në fakt, përjashtimet janë sfida për rregullat e sensit të përbashkët. Zogjtë e porsalindur nuk mund të fluturojnë, zogjtë e mbuluar me vaj nuk mund të fluturojnë, zogjtë e lënduar nuk mund të fluturojnë, zogjtë në një kafaz nuk mund të fluturojnë. Çështja është që përjashtimet nuk janë të jashtëzakonshme, dhe ju dhe unë mund t’i mendojmë ato edhe pse askush nuk na tha. Është një aftësi magjepsëse dhe nuk është aq e lehtë për A.I.

Ju iu referuat në mënyrë skeptike GPT-3 më herët. A mendoni se nuk është mbresëlënëse? Unë jam një fans i madh i GPT-3, por në të njëjtën kohë ndjej se disa njerëz e bëjnë atë më të madh se sa është. Disa njerëz thonë se ndoshta testi Turing2 tashmë është kaluar. Nuk jam dakord sepse, po, ndoshta duket sikur mund të jetë miratuar bazuar në një performancë më të mirë të GPT-3. Por nëse shikoni performancën mesatare, është shumë larg nga inteligjenca e fuqishme njerëzore. Duhet të shohim rastin mesatar. Sepse kur zgjedh një performancë më të mirë, kjo është në fakt inteligjenca njerëzore që bën punën e vështirë të përzgjedhjes. Gjëja tjetër është, megjithëse përparimet janë emocionuese në shumë mënyra, ka kaq shumë gjëra që nuk mund t’i bëjë mirë. Por njerëzit e bëjnë atë përgjithësim të nxituar: sepse ndonjëherë mund të bëjë diçka vërtet mirë, atëherë ndoshta A.G.I. është afër qoshes. Nuk ka asnjë arsye për të besuar kështu.

Pra, çfarë është më emocionuese për ju tani për punën tuaj në A.I.? Unë jam e emocionuar për pluralizmin e vlerave, faktin që vlera nuk është njëjës. Një mënyrë tjetër për ta thënë është se nuk ka asnjë të vërtetë universale. Shumë njerëz ndihen të pakëndshëm për këtë. Si shkencëtarë, ne jemi trajnuar që të jemi shumë të saktë dhe të përpiqemi për një të vërtetë. Tani po mendoj, mirë, nuk ka asnjë të vërtetë universale – a mund të fluturojnë zogjtë apo jo? Ose normat sociale dhe kulturore: a është mirë të lini një derë dollapi hapur? Një person i rregullt mund të mendojë, mbylle gjithmonë. Unë nuk jam e rregullt, kështu që mund ta mbaj hapur. Por nëse dollapi është i kontrolluar nga temperatura për ndonjë arsye, atëherë unë do ta mbaj të mbyllur; nëse dollapi është në shtëpinë e dikujt tjetër, ndoshta do të sillem mirë. Këto rregulla në thelb nuk mund të shkruhen si të vërteta universale, sepse kur zbatohen në kontekstin tuaj kundrejt kontekstit tim, kjo e vërtetë do të duhet të përkulet. Rregullat morale: Duhet të ketë ndonjë të vërtetë morale, e dini? Mos vrisni njerëz, për shembull. Por çfarë nëse është një vrasje mëshirë? E pastaj?

Po, kjo është diçka që nuk e kuptoj. Si mund të mësoni A.I. për të marrë vendime morale kur pothuajse çdo rregull apo e vërtetë ka përjashtime? A.I. duhet të mësojnë saktësisht se: Ka raste që janë më të pastra dhe më pas ka raste që janë më diskrecionale. Duhet të mësojë pasigurinë dhe shpërndarjen e opinioneve. Më lejoni ta lehtësoj pak shqetësimin tuaj këtu duke bërë një rast përmes modelit gjuhësor dhe A.I. Mënyra për të trajnuar A.I. ka për të parashikuar se cila fjalë vjen më pas. Pra, duke pasur parasysh një kontekst të kaluar, cila fjalë vjen më pas? Nuk ka asnjë të vërtetë universale se cila fjalë vjen më pas. Ndonjëherë ka vetëm një fjalë që mund të vijë, por pothuajse gjithmonë ka shumë fjalë. Ekziston kjo pasiguri, dhe megjithatë ai trajnim rezulton të jetë i fuqishëm sepse kur i shikon gjërat më globalisht, A.I. përmes shpërndarjes statistikore mëson fjalën më të mirë për t’u përdorur, shpërndarjen e fjalëve të arsyeshme që mund të vijnë më pas. Mendoj se edhe vendimmarrja morale mund të bëhet kështu. Në vend që të marrë vendime binare, të prera, ndonjëherë duhet të marrë vendime të bazuara në “Kjo duket vërtet keq.” Ose ju keni pozicionin tuaj, por e kupton që, mirë, gjysma e vendit mendon ndryshe.

Është shpresa përfundimtare që A.I. mund të marrë një ditë vendime etike që mund të jenë disi neutrale ose madje në kundërshtim me qëllimet potencialisht joetike të projektuesve të saj – si një A.I. projektuar për përdorim nga kompanitë e mediave sociale që mund të vendosin të mos shfrytëzojnë privatësinë e fëmijëve? Apo thjesht do të ketë gjithmonë ndonjë interes personal ose privat në anën e pasme që e përmbys vlerën etike? E para është ajo që ne dëshirojmë të aspirojmë të arrijmë. Kjo e fundit është ajo që në të vërtetë ndodh në mënyrë të pashmangshme. Në fakt, Delphi (A.I. që komunikon përgjigje etike) është i prirur nga e majta në këtë drejtim, sepse shumë nga punëtorët e turmës që bëjnë shënime për ne janë pak me prirje majtas. Si e majta ashtu edhe e djathta mund të jenë të pakënaqur për këtë, sepse për njerëzit në të majtë Delphi nuk është lënë mjaftueshëm, dhe për njerëzit në të djathtë është potencialisht jo gjithëpërfshirës sa duhet. Por Delphi ishte vetëm një goditje e parë. Ka shumë punë për të bërë dhe besoj se nëse mund të zgjidhim disi pluralizmin e vlerave për A.I., kjo do të ishte vërtet emocionuese. Për të pasur një grup vlerash të A.I. që nuk janë një gjë sistematike, por diçka që ka shumë dimensione ashtu si një grup njerëzish.

Si do të dukej “zgjidhja” e pluralizmit të vlerave? Unë jam duke menduar për këtë këto ditë dhe nuk kam përgjigje të qarta. Nuk e di se si duhet të duket “zgjidhja”, por ajo që dua të them për qëllimin e kësaj bisede është se A.I. duhet të respektojë pluralizmin e vlerave dhe diversitetin e vlerave të njerëzve, në krahasim me zbatimin e një kuadri moral të normalizuar tek të gjithë.

A mund të ndodhë që nëse njerëzit janë në situata ku ne jemi duke u mbështetur në A.I. për të marrë vendime morale, atëherë ne tashmë e kemi dështuar? A nuk është morali diçka që ndoshta nuk duhet ta japim në radhë të parë? Ju po prekni një keqkuptim të zakonshëm – më vjen keq të them troç – që njerëzit duket se kanë në lidhje me modelin Delphi që kemi bërë. Është një model pyetje dhe përgjigje. Ne e bëmë të qartë, menduam, se kjo nuk është për njerëzit që të marrin këshilla morale. Ky është më shumë një hap i parë për të testuar atë që A.I. mund ose nuk mund të bëjë. Motivimi im primar ishte që A.I. duhet të mësojë vendimmarrjen morale në mënyrë që të jetë në gjendje të ndërveprojë me njerëzit në një mënyrë më të sigurt dhe më të respektueshme. (përktheu lapsi.al) Kështu që, për shembull, A.I. nuk duhet t’i sugjerojë njerëzit të bëjnë gjëra të rrezikshme, veçanërisht fëmijët, ose A.I. nuk duhet të gjenerojë deklarata që janë potencialisht raciste dhe seksiste, ose kur dikush thotë se Holokausti nuk ka ekzistuar kurrë, A.I. nuk duhet të pajtohet. Ajo duhet të kuptojë gjerësisht vlerat njerëzore, në krahasim me njohjen vetëm nëse një fjalë kyçe e caktuar ka tendencë të lidhet me racizëm apo jo. A.I. nuk duhet të jetë kurrë një autoritet universal për asgjë, por duhet të jetë i vetëdijshëm për pikëpamjet e ndryshme që njerëzit kanë, të kuptojë se ku nuk pajtohen dhe më pas të jetë në gjendje të shmangë rastet dukshëm të këqija.

Ashtu si shembulli i kapëses së letrës Nick Bostrom, i cili e di që është ndoshta alarmues. Por a është shqetësues një shembull i tillë? Jo, por kjo është arsyeja pse unë jam duke punuar në kërkime si Delphi dhe normat sociale, sepse është një shqetësim nëse vendosni budallallëqe në A.I. për ta optimizuar për një gjë idiote. Ky është më shumë një gabim njerëzor sesa një gabim A.I. Por kjo është arsyeja pse normat dhe vlerat njerëzore bëhen të rëndësishme si njohuri bazë për A.I. Disa njerëz mendojnë në mënyrë naive nëse mësojmë A.I.: “Mos vrisni njerëz duke maksimizuar prodhimin e kapëses së letrës”, A.I. do të kujdeset për të. Por makina mund të vrasë të gjitha bimët. Kjo është arsyeja pse ajo gjithashtu ka nevojë për sens të përbashkët. Është e arsyeshme që të mos vriten të gjitha bimët për të ruajtur jetët njerëzore; është e arsyeshme të mos shkosh me zgjidhje ekstreme, degjeneruese.

The New York Times, përshtati në shqip ©LAPSI.AL 



1 Comment

  1. Kur njerzit nuk. KAN Frik Zotin e vet. I, cili I tregon kufijt.vlerat Dhe shpetimin. Jashta KESAJ per cdo angazhim. Njerzit to ti ndjekin pas. Frika pasigurija deshtimi shkatrrimi antivlerat

Lini një Përgjigje

Adresa juaj email s’do të bëhet publike. Fushat e domosdoshme janë shënuar me një *