Dirbtinio intelekto ekspertai nėra tikri dėl technologijų ateities
Kaip rašo „The Independent“, šis tyrimas yra pirmoji Tarptautinės mokslinės pažangiųjų dirbtinių intelektų saugumo ataskaitos versija, apie kurią pirmą kartą buvo paskelbta Jungtinės Karalystės vadovaujamame aukščiausiojo lygio susitikime dėl dirbtinio intelekto saugumo, vykusiame lapkričio mėnesį Bletchley parke, ir kurią atliko dirbtinio intelekto ekspertai iš 30 šalių, įskaitant Jungtinę Karalystę, JAV ir Kiniją, taip pat JT ir ES.
Ataskaitoje ne tik pabrėžiama galima technologijos nauda ir rizika, bet ir įspėjama, kad ekspertai nesutaria dėl daugelio AI (DI) klausimų, įskaitant dabartinių AI pajėgumų būklę ir jų raidą laikui bėgant, taip pat ekstremalių įvykių tikimybę ir kylančią riziką, pavyzdžiui, technologijos kontrolės praradimą.
Tarpinę ataskaitą parengė 30 šalių paskirti nepriklausomi ekspertai, ES ir JT atstovai, kurie dalyvavo pirmajame aukščiausiojo lygio susitikime dėl dirbtinio intelekto saugos, tačiau dar nesulaukė reikšmingo technologijų ir dirbtinio intelekto bendrovių indėlio.
Ataskaitoje išskiriamos trys pagrindinės dirbtinio intelekto rizikos kategorijos: piktavališkas naudojimas, trikdžių rizika ir sisteminė rizika.
Ataskaitoje teigiama, kad piktavališkas naudojimas gali apimti plataus masto sukčiavimą ir apgavystes, klastotes, dezinformaciją, pagalbą vykdant kibernetines atakas ar kuriant biologinį ginklą.
Galimos rizikos, susijusios su dirbtinio intelekto trikdžiais, apima susirūpinimą dėl šališkumo, kai jis netyčia įtraukiamas į sistemas ir vėliau sukelia neproporcingą poveikį skirtingiems žmonėms, ir susirūpinimą dėl dirbtinio intelekto sistemų, ypač bet kokių autonominių dirbtinio intelekto sistemų, kontrolės praradimo.
Nuogąstavimai dėl galimos sisteminės rizikos apėmė galimą poveikį darbo rinkai, susirūpinimą dėl to, kad jo kūrimas koncentruojamas Vakaruose ir Kinijoje, dėl ko susidaro nelygios sistemos prieigos prie technologijų požiūriu, ir susirūpinimą dėl rizikos, kurią AI kelia privatumui, nes modeliai mokosi iš asmeninių ar neskelbtinų duomenų.
Ji taip pat atkreipė dėmesį į dirbtinio intelekto plėtros poveikį autorių teisių teisei ir dirbtinio intelekto plėtros, kuri yra daug energijos reikalaujantis procesas, poveikį klimatui.
Daroma išvada, kad bendrosios paskirties dirbtinio intelekto ateitis yra „neaiški“, su „labai gerais“ ir „labai blogais“ rezultatais, tačiau ši technologija nėra neišvengiama, todėl reikalingi tolesni tyrimai ir diskusijos.
Ataskaita taps atspirties tašku diskusijoms kitame aukščiausiojo lygio susitikime dėl dirbtinio intelekto - Seulo aukščiausiojo lygio susitikime dėl dirbtinio intelekto, kuris kitą savaitę virtualiai vyks Pietų Korėjoje.
Dirbtinio intelekto naujienos
Masačusetso technologijos instituto mokslininkai paskelbė tyrimą apie „meluojantį dirbtinį intelektą“.
Pasirodo, kai kurios dirbtinio intelekto sistemos jau išmoko apgaudinėti žmones, įskaitant ir tas, kurios buvo apmokytos išlikti sąžiningos.
Mokslininkai nustatė, kad šios dirbtinio intelekto sistemos gali atlikti tokias užduotis, kaip apgauti internetinių žaidimų žaidėjus arba apeiti CAPTCHA („Aš nesu robotas“ patikrą).
Šie iš pirmo žvilgsnio banalūs pavyzdžiai gali turėti rimtų pasekmių realiame gyvenime.
Rašyti komentarą