Išskirtinis pranešimas: nauji „OpenAI“ modeliai gali kelti „didelį“ kibernetinio saugumo pavojų

„OpenAI“ teigia, kad jos pažangiausių AI modelių kibernetinės galimybės sparčiai auga, ir trečiadienį įspėja, kad būsimi modeliai gali kelti „didelį“ pavojų, kaip teigiama ataskaitoje, kurią pirmiausia gavo „Axios“.

Kodėl tai svarbu: Dėl didėjančių modelių pajėgumų gali žymiai išaugti žmonių, galinčių vykdyti kibernetines atakas, skaičius.

„OpenAI“ teigia, kad jau pastebėjo žymų pajėgumų padidėjimą naujausiuose modeliuose, ypač dėl to, kad modeliai gali ilgiau veikti autonomiškai, sudarant sąlygas brutalios jėgos atakoms.

Bendrovė pažymi, kad GPT-5 rugpjūčio mėn. užfiksavo 27 % rezultatą „capture-the-flag“ pratime, o GPT-5.1-Codex-Max praėjusį mėnesį sugebėjo pasiekti 76 % rezultatą.

„Tikimės, kad būsimi AI modeliai tęs šią tendenciją“, – teigiama bendrovės ataskaitoje. „Ruošdamiesi, planuojame ir vertiname taip, tarsi kiekvienas naujas modelis galėtų pasiekti „aukštą“ kibernetinio saugumo pajėgumų lygį, vertinamą pagal mūsų pasirengimo sistemą.“

„OpenAI“ birželio mėnesį išleido panašų įspėjimą dėl biologinių ginklų pavojaus, o liepos mėnesį išleido „ChatGPT Agent“, kuris iš tiesų buvo įvertintas kaip „aukštas“ pagal rizikos lygį.

„Aukštas“ yra antras pagal aukštumą lygis, žemesnis už „kritinį“ lygį, kuriam esant modeliai yra nesaugūs viešai paskelbti.

Bendrovė tiksliai nenurodė, kada galima tikėtis pirmųjų modelių, įvertintų „aukštu“ kibernetinio saugumo rizikos lygiu, arba kokie būsimų modelių tipai galėtų kelti tokią riziką.

Ką jie sako: „Tai, ką aš aiškiai pavadinčiau priverstine funkcija, yra modelio gebėjimas dirbti ilgą laiką“, – sakė „OpenAI“ atstovas Fouad Matin išskirtiniame interviu „Axios“.

Tokios brutalios jėgos atakos, kurios remiasi šiuo ilgu laiku, yra lengviau apsiginti, sako Matin.

„Bet kurioje apsaugotoje aplinkoje tai būtų gana lengvai pastebėta“, – pridūrė jis.

Pirmaujančios modeliai vis geriau aptinka saugumo pažeidžiamumą – ir ne tik OpenAI modeliai.

Dėl to OpenAI teigia, kad stiprina pastangas visoje pramonėje kovoti su kibernetinio saugumo grėsmėmis, įskaitant Frontier Model Forum, kurį 2023 m. įkūrė kartu su kitomis pirmaujančiomis laboratorijomis.

Bendrovė teigia, kad įsteigs atskirą „Frontier Risk Council“ – patariamąją grupę, kuri „suburs patyrusius kibernetinio saugumo specialistus ir saugumo praktikus glaudžiai bendradarbiauti“ su „OpenAI“ komandomis.

Taip pat vykdomi uždari „Aardvark“ testavimai – tai įrankis, kurį kūrėjai gali naudoti saugumo spragoms savo produktuose rasti. 

Kūrėjai turi pateikti paraišką, kad gautų prieigą prie „Aardvark“, kuris jau rado kritinių pažeidžiamumų, teigia „OpenAI“.

axios.com

Rašyti komentarą

Plain text

  • HTML žymės neleidžiamos.
  • Linijos ir paragrafai atskiriami automatiškai
  • Web page addresses and email addresses turn into links automatically.
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.
Sidebar placeholder