Përdorimi i inteligjencës artificiale pa strategji, i ekspozon qytetarët në rrezik, RMV askund me procedurën
Përdorimi i inteligjencës artificiale (IA) në mungesë të strategjisë apo rregullimit, qytetarët i ekspozon në rrezik nga keqpërdorimet e mundshme. RMV ka formuar grup punues për Strategjinë Nacionale për Inteligjencë Artificiale, por prej vitit 2021, i njëjti ka mbajtur vetëm një mbledhje, shkruan Portalb.mk.
Dalja e robotit Chat GPT i cili ka aftësi për të biseduar ngjashëm si njeriu me një shkallë të lartë rrjedhshmërie dhe koherence, ka rikthyer vëmendjen e botës për përdorimin e Inteligjencës Artificiale në shërbim të njeriut, por edhe rreziqet e mundshme që mund t’i sjellë ajo.
Portalb.mk në kuadër të projektit ICEDA, ka diskutuar me ekspertë dhe përfaqësues të institucioneve të RMV-së në lidhje me atë se sa vendi ynë është i përgatitur për përdorimin e IA-së në sektorin publik, a kemi infrastrukturë digjitale përkatëse dhe cilat janë rreziqet e mundshme nga përdorimi i IA-së në mungesë të Strategjisë Nacionale.
RMV nuk ka strategji për përdorim të inteligjencës artificiale, përdorimi mund të jetë i rrezikshëm
Në Maqedoninë e Veriut deri tani asnjë prej institucioneve shtetërore nuk përdor inteligjencë artificiale. Me iniciativën e Fondit për Inovacione dhe Zhvillim Teknologjik (FIZHT) dhe zëvendëskryeministrit përgjegjës për Çështjet Ekonomike, është formuar një grup pune, qëllimi i të cilit është krijimi i Strategjisë së parë Nacionale për Inteligjencën artificiale në RMV. Strategjia është pjesë e planit zhvillimor ekonomik të Republikës së Maqedonisë së Veriut dhe pjesë e Strategjisë Kombëtare për Zhvillim 2021-2041. Megjithatë, prej formimit, ky grup është mbledhur vetëm një herë.
“Në hapat e mëtejshëm, FIZHT në komunikim me UNDP-në, Bankën Botërore si dhe aktorë të tjerë që kanë përvojë dhe njohuri në përpilimin e Strategjisë Kombëtare për Inteligjencën Artificiale, punojnë për të siguruar një ekspert/konsulent drejtues ose një ekip, që do të ndihmojë në procesin e përpilimit të kësaj strategjie me mbështetjen e grupit të punës si dhe në procesin e krijimit të një konstruksioni financiar për realizimin e të gjithë procesit”, thonë nga FIZHT, duke u arsyetuar se është një proces i gjerë që kërkon burime të konsiderueshme njerëzore dhe kohë.
Nga Agjencia për Mbrojtjen e të Dhënave Personale për Portalb.mk shprehen se algoritmet e inteligjencës artificiale po marrin gjithnjë e më shumë vendime të rëndësishme për jetën e njerëzve pa ndonjë mbikëqyrje apo llogaridhënie, dhe atëherë kur aplikohen në mënyrë të papërshtatshme ose të papërgjegjshme, Inteligjenca Artificiale mund të rezultojë në humbje të punësimit, paragjykime ose qëndrimeve raciste, etj.
“Për këtë arsye, iniciativat për të rishikuar dhe krijuar standarde janë të motivuara nga shqetësimet rreth keqpërdorimit të mundshëm ose pasojave të paparashikuara nga inteligjenca artificiale. Teknologjia e Inteligjencës artificiale ka potencialin të përmirësojë jetët tona, sigurinë dhe mbrojtjen tonë individuale dhe si shoqëri, por kjo nuk duhet të jetë sakrificë për vlerat dhe të drejtat tona themelore. Agjencia për Mbrojtjen e të Dhënave Personale, duke ndjekur udhëzimet e BE-së, monitoron zhvillimin dhe përdorimin e teknologjive të Inteligjencës Artificiale në vendin tonë dhe aspiron për qasje të balancuar mes shpejtësisë së ndryshimeve teknologjike dhe sfidave të mundshme ndaj të drejtave për mbrojtjen e të dhënave personale, si një nga të drejtat themelore të njeriut”, thonë nga AMDHP.
Ekspertët vlerësojnë se mungesa e strategjisë apo rregullimit ligjor për përdorimin e IA-së i ekspozon qytetarët në rrezik për keqpërdorim, prandaj shteti duhet të ndërmarrë hapa për t’i mbrojtur qytetarët.
Nga shoqata civile “Konekt”, përfaqësuesi i të cilës është dhe pjese e grupit punues për Strategjinë për IA thonë se duhet të jemi të shqetësuar për çështjen e privatësisë, mbikëqyrjes, zbatimit të parimit të bazuar në rrezik, por edhe respektimit të të drejtave të njeriut. Sipas tyre, nëse këto këto çështje nuk merren parasysh, vlerësohet se mund të ketë sfida të mëdha etike në zhvillimin e sistemeve të menaxhuara nga inteligjenca artificiale.
“Duke e pasur parasysh faktin që në nivel të BE-së tanimë po përgatitet akt për inteligjencë artificiale, ndërkaq RMV si vend kandidat për anëtarësim në BE ka obligim për t’i transpozuar rregullativat dhe direktivat që janë të detyrueshme në BE, ndoshta është më mirë që të fillohet me miratimin e strategjisë nacionale. Atë që mundemi ta bëjmë në ndërkohë është që të shfrytëzohet grupi ekzistues punues për Strategji Nacional për IA dhe të formohet qëndrim shtetëror për Konventën për Inteligjencë Artificiale, të Drejta të Njeriut, Demokraci dhe Sundim të së Drejtës”, thonë Irina Haxhi Mitova, bashkëpunëtore programore nga Konekt.
Në lidhje me rrezikun për keqpërdorimin e të dhënave personale nga IA, nga Konekt shtojnë se RMV është në tërësi e harmonizuar me rregullativat evropiane dhe ka mekanizëm për mbrojtjen e tyre, por rreziku është nëse popullata nuk është mjaftueshëm e edukuar në temën se çfarë gjithçka bie nën të dhëna personale, si të mbrohen ato dhe mekanizmat që i kanë në disponim nëse ato keqpërdoren. “Rreziku për keqpërdorim të të dhënave personale vjen nga vetë njerëzit, jo nga inteligjenca artificiale”, thonë nga Konekt.
Profesori universitar dr. Petre Llameski, vlerëson se mungesa e strategjisë në shtet dhe mungesa e rregullimit të dukshëm i ekspozon qytetarët në rrezik nga keqpërdorimi, ndërkaq edhe më shumë frenohet zhvillimi i institucioneve të cilët janë të vonuara në zbatimin e IA-së në punën e tyre. Sipas profesorit, problem për shtetin është ajo që aplikacionet softuerike të cilat intensivisht përdorin IA, janë të bëra dhe ofruara nga kompanitë me seli në shtete tjera dhe të dhënat tona procesuohen dhe shfrytëzohen atje, me çka tjetër kush i tërheqë përfitimet nga shfrytëzimi i IA-së.
“Miratimi i Strategjisë për IA është diçka që tanimë duhej ta kishim bërë, por ende nuk është shumë vonë. Qëllimi i strategjisë, sipas meje, duhet të jetë në drejtim të zhvillimit të kapaciteteve shtetërore dhe subvencioneve të kompanive për futjen e IA-së në punë dhe shfrytëzim të përfitimeve, por edhe futjen e mekanizmave për mbikëqyrje dhe kontroll të cilët mund t’i rregullonin pasojat nga shfrytëzimi i saj, veçanërisht ato ekonomike. Tanimë ekziston garë globale në zhvillimin e IA-së në të gjitha fushat. Maqedonia ka kapacitete, të cilat nëse shfrytëzohen në mënyrë të duhur, do të mundësojnë që ajo të ngjitet në vend të lartë në përmasa botërore në pikëpamjen e pranimit të zbatimit të IA-së. Në atë kuptim është i nevojshëm zbatim i kujdesshëm i mekanizmave të propozuara rregullator nga ana e shteteve më të mëdha, veçanërisht nga BE dhe marrje parasysh e interesave shtetërore dhe potencialit për zhvillimin që e ofron IA”, thotë profesori Llameski.
Në lidhje me keqpërdorimin e të dhënave gjatë përdorimit të IA-së, profesori Llameski thotë se RMV e ka të harmonizuar ligjin për mbrojtjen e të dhënave me atë të BE-së. Megjithatë, sipas tij, IA mund të jetë kundërproduktive, madje dhe e dëmshme, nëse vendimet që i miraton merren të mirëqena dhe nuk bëhet evaluim shtesë i tyre. Siç thotë profesori, tanimë ka metoda të zhvilluara të cilat mund të zbatohen në praktikë, me qëllim të mirëmbajtjes së cilësisë së aplikacioneve që përdorim IA dhe zvogëlimin dhe shkatërrimin e dëmeve potenciale që mund të shkaktohen.
Dr. Mentar Mahmudi, i cili punon si shkencëtar i lartë në shkencat e aplikuara në Amazon, për Portalb.mk thotë se gjithçka që ka potencial të jetë i rrezikshëm për shoqërinë, duhet të ketë një strategji nacionale që do t’i mitigon këto rreziqe. Veçanërisht dukuritë që nuk kuptohen plotësisht dhe që kanë një kapacitet të ndryshojnë të ardhmen në mënyrë substanciale janë vështirë për t’i rregulluar. Ai numëroi pasojat potenciale nëse IA përdoret pa pasur strategji ose dispozita ligjore.
- Shkelje të të drejtave të njeriut: Përdorimi i inteligjencës artificiale pa rregulla dhe mekanizma mbikëqyrje mund të shkelë të drejtat themelore të njeriut, si të drejtën për privatësi, lirinë personale dhe të drejtat në lidhje me diskriminimin.
- Përhapja e pabarazisë: Algoritmet e inteligjencës artificiale mund të përdoren për të krijuar sisteme që përbëjnë pabarazi ndaj grupeve të ndryshme të njerëzve, përfshirë minoritetet dhe grupet e diskriminuara.
- Rritje e pabarazisë ekonomike: Nëse inteligjenca artificiale përdoret në mënyrë që të zëvendësojë punëtorët njerëzorë, ajo mund të çojë në rritjen e pabarazisë ekonomike dhe papunësisë.
- Rritje e rrezikut nga kiberkriminaliteti: Nëse sistemet e inteligjencës artificiale nuk janë të sigurta, ato mund të jenë të prekshme nga sulmet e kiberkriminalëve, duke çuar në humbje të informacionit dhe shkelje të privatësisë.
- Kontrolli dhe Siguria: Në raste të ndërprerjes së kontrollit të IA-së, mund të shkaktojë pasoja të rrezikshme për njerëzit dhe mjedisin, p.sh. automatizimi i avionëve pa pilot mund të shkaktojë aksidente të rrezikshme.
- Transparenca dhe Llogaridhënia: Nëse IA nuk është transparente dhe e drejtpërdrejtë, mund të jetë e vështirë të monitorohet dhe të analizohet nëse ka bërë zgjedhje të drejta dhe nëse është e drejtë
Sipas dr. Mahmudit, për të minimizuar këto rreziqe, është e rëndësishme që shtetet dhe organizatat private të përdorin inteligjencën artificiale në mënyrë të urtë dhe me qëllime të qarta. Kjo mund të përfshijë zhvillimin e ligjeve dhe rregulloreve për të rregulluar përdorimin e saj, si dhe mbikëqyrjen e vazhdueshme të aplikimeve të saj.
Në lidhje me keqpërdorimin e të dhënave personale, dr. Mentar Mahmudi thotë se mund të jetë i rrezikshëm, pasi kjo teknologji mund të mbledhë, procesojë dhe analizojë të dhëna të mëdha me shpejtësi dhe efikasitet. Nëse kjo teknologji përdoret në mënyrë të paqëndrueshme ose pa respektuar të drejtat e privatësisë së individëve, atëherë mund të ketë pasoja të rënda për ta.
Sipas tij, është e rëndësishme që institucionet dhe kompanitë të jenë të vetëdijshëm për rrezikun e keqpërdorimit të të dhënave personale në përdorimin e IA dhe të marrin masat e nevojshme për të mbrojtur privatësinë e individëve. Gjithashtu, shton ai, është e nevojshme që shteti dhe institucionet përkatëse të investojnë në trajnimin dhe ndërgjegjësimin e specialistëve dhe publikut për rrezikun e keqpërdorimit të të dhënave personale në përdorimin e IA dhe për të nxitur zhvillimin e një kulture të privatësisë dhe mbrojtjes së të dhënave personale.
Ndryshe, në fund të muajit mars, Italia, u bërvendi i parë perëndimor që bllokoi chat-botin, ChatGPT për shkak shqetësimeve për privatësinë në lidhje me modelin, i cili u krijua nga “OpenAI” dhe mbështetet nga Microsofti. Sipas autoriteteve italiane, më 20 mars ka pasur rrjedhje të të dhënave nga ChatGPT, mes tjerash, dhe biseda të shfrytëzuesve dhe informata për pagesa.
Organi italian thotë se juridikisht nuk mund të arsyetohet “mbledhja dhe deponimi masiv i të dhënave personale me qëllim të trajnimit të algoritmeve të cilat janë në themel të punës së platformës”. Gjithashtu, pasi nuk ka mënyrë se si të konfirmohet mosha e shfrytëzuesve, aplikacioni “i ekspozon të miturit në përgjigje absolutisht jopërkatëse në krahasim me shkallën e tyre të zhvillimit dhe vetëdijes”.
OpenAI ka 20 ditë kohë për të treguar se si do t’i trajtojë shqetësimet e mbikëqyrësit, ose do të pasojë një gjobë prej 20 milionë eurosh ose deri në 4% të të ardhurave vjetore të kompanisë.
Gjithashtu, figurat kryesore të teknologjisë, përfshirë Elon Musk, kërkuan që këto lloje të sistemeve të inteligjencës artificiale të pezulloheshin mes frikës se gara për t’i zhvilluar ishte jashtë kontrollit.
Vazhdon pjesa e dytë me mundësitë e mira që i ofron inteligjenca artificiale.
Kjo storje hulumtuese është përgatitur si pjesë e projektit “Rritja e Pjesëmarrjes së Qytetarëve në Agjendën Digjitale – ICEDA”, i bashkë-financuar nga Bashkimi Evropian dhe i zbatuar nga Fondacioni Metamorfozis (Maqedonia e Veriut), Akademia për e-Qeverisje (Estoni), Lëvizja Mjaft! (Shqipëri), Partnerët për Ndryshime Demokratike Serbi (Serbi), OJQ-ja 35 mm (Mali i Zi) dhe “Open Data Kosovo” (Kosovë).
Kjo storje hulumtuese është përgatitur me mbështetjen financiare të Bashkimit Evropian. Përmbajtja e kësaj storjeje hulumtuese është përgjegjësi e vetme e Fondacionit Metamorfozis dhe e autorëve dhe në asnjë mënyrë nuk i pasqyron qëndrimet e Bashkimit Evropian.
Komentet