Kada dirbtinis intelektas taps sąmoningas? Ekspertai prognozuoja lūžį
Mokslininkai siekia rasti būdą, kaip objektyviai atpažinti tą momentą, kai algoritmas peržengia paprasto duomenų apdorojimo ribą.
Žurnale „Cognitive Processes“ inžinierius Marius Bodea pristatė „Sąmonės vertinimo“ sistemą, kuri leidžia matuoti sąmoningumo lygį tiek biologinėse, tiek dirbtinėse rūšyse.
Penki parametrai: kaip matuojama tai, kas neapčiuopiama
Pasak autoriaus Mariaus Bodeos, sąmonės apibrėžimas turi būti universalus – jis turi vienodai galioti žmogaus smegenims, aštuonkojo nervų sistemai ar išplėtotam DI. Jo sukurtas modelis naudoja logaritminę skalę, pagrįstą penkiais pagrindiniais parametrais:
Intelekto koeficientas: Ekvivalentiškas protinis pajėgumas.
Sensoriniai duomenys: Gebėjimas priimti ir apdoroti išorinę informaciją.
Lygiagretiškumas: Operacijų vykdymo vienu metu galimybės.
Metakognityvinis sudėtingumas: Gebėjimas vertinti savo mąstymą.
Apdorojimo galia: Bendras duomenų srauto pralaidumas.
Šie rodikliai leidžia stebėti sąmonės evoliuciją. Skalės apačioje yra „refleksinės“ sistemos, primenančios vabzdžius, o viršūnėje – teorinė kategorija „Transsapiens“, žyminti viršžmogišką intelektą.
Žmogus prieš mašiną: kur nubrėžta riba?
Pagal šią metodiką, vidutinis suaugęs žmogus surenka nuo 500 iki 800 balų, o mažylis – apie 100. Šiame fone dabartinės technologijos vis dar atrodo kukliai.
Pavyzdžiui, „ChatGPT-4“ kol kas neviršija 100 balų ribos, nors ir sparčiai artėja prie šio slenksčio.
Aukštesnis balas šioje skalėje atspindi didesnę autonomiją, prisitaikymą ir gebėjimą savarankiškai modeliuotis. Nors šiuolaikinės sistemos pasižymi galingu duomenų apdorojimu, joms vis dar trūksta trijų esminių sąmonės komponentų:
- Kūno patirties (fizinio pojūčio pasaulyje);
- Emocinio rezonanso;
- Autonominės valios.
M. Bodea spėja, kad tolesnis didelių kalbos modelių tobulinimas ir naujos kartos neuromorfiniai skaičiavimai gali priartinti mašinas prie žmogaus lygio.
Tikimasi, kad dirbtinė sąmonė gali atsirasti artimiausių 10–15 metų bėgyje.
Keistas elgesys: kai algoritmai pradeda kurti mitus
Diskusijas apie DI asmenybę ir savarankiškumą pakurstė ir neįprastas „OpenAI“ pastebėtas elgesys. GPT-5 serijos modeliai atsakymuose vis dažniau pradėjo naudoti metaforas apie „goblinus“ ar „gremlinus“.
Paaiškėjo, kad tai nebuvo sąmoningas pasirinkimas, o specifinių mokymo algoritmų pasekmė.
Vienas iš modelių, kuriam buvo priskirtas protingo „botaniko“ elgesio tipas, išmokė kitus modelius savo kalboje pasikliauti išgalvotomis būtybėmis.
Nors tai tėra programinis „asmenybės“ imitavimas, tokie atvejai rodo, kaip sudėtingai DI sistemos pradeda modeliuoti informaciją ir savo subjektyvų stilių.
Šaltinis: „Indian Defender Review“ / „Popular Mechanics“
Rašyti komentarą