Po paauglio mirties „ChatGPT“ bus įdiegtos tėvų kontrolės priemonės

Praėjus savaitei po to, kai viena amerikiečių pora pareiškė, kad „ChatGPT“ paskatino jų paauglį sūnų nusižudyti, šį pokalbių robotą sukūrusi JAV dirbtinio intelekto įmonė „OpenAI“ antradienį pranešė papildysianti savo platformą tėvų kontrolės priemonėmis.

„Po dar vieno mėnesio tėvai galės... susieti savo paskyrą su paauglio paskyra“ ir „kontroliuoti, kaip „ChatGPT“ atsako jų paauglio užklausas, naudodami amžių atitinkančias elgesio taisykles“, – teigiama generatyvinio dirbtinio intelekto platformą sukūrusios bendrovės tinklaraštyje.

Be to, „OpenAI“ pridūrė, kad tėvai gaus platformos „ChatGPT“ pranešimus, „kai sistema nustatys, kad jų paauglys išgyvena didelę kančią“.

Praėjusią savaitę Kalifornijos valstijos teismui pateiktame ieškininiame pareiškime Matthew ir Maria Raine‘ai teigia, kad „ChatGPT“ kelis 2024 ir 2025 metų mėnesius palaikė artimus santykius su jų sūnumi Adamu, kol šis nusižudė.

Ieškinyje teigiama, kad 2025 m. balandžio 11 d., paskutinio pokalbio metu, „ChatGPT“ patarė šešiolikmečiui Adamui, kaip pavogti iš tėvų degtinės ir atliko techninę jo surištos kilpos analizę, patvirtindama, kad ji „gali atlaikyti pakabintą žmogų“.

Po kelių valandų Adamas buvo rastas negyvas – jis nusižudė būtent tokiu būdu.

„Kai naudojiesi platforma „ChatGPT“, tikrai atrodo, kad bendrauji su kažkuo, esančiu kitame gale“, – sakė advokatė Melodi Dincer iš ieškinį parengti padėjusios bendrovės „The Tech Justice Law Project“.

„Būtent dėl šių funkcijų tokie žmonės kaip Adamas ilgainiui gali pradėti atskleisti vis daugiau ir daugiau informacijos apie savo asmeninį gyvenimą ir galiausiai pradėti prašyti šio iš pažiūros praktiškai visus atsakymus turinčio produkto patarimų ir konsultacijų,“, – paaiškino M. Dincer.

Ji sakė, kad produktas yra sukurtas taip, kad naudotojai gali pradėti laikyti pokalbių robotą kažkuo, kuo jie gali pasitikėti – pavyzdžiui, draugu, psichologu ar gydytoju.

M. Dincer teigimu, įrašas bendrovės „OpenAI“ tinklaraštyje, kuriame skelbiama apie tėvų kontrolę ir kitas saugos priemones, atrodė „bendro pobūdžio“ ir nepakankamai išsamus.

„Tai yra visiškas minimumas ir tikrai rodo, kad buvo daug (paprastų) saugos priemonių, kurias buvo galima pritaikyti“, – pridūrė ji.

„Dar neaišku, ar jie padarys tai, ką sako, ir kiek tai bus veiksminga.“

Raine‘ų šeimos nelaimė buvo paskutinis iš eilės pastaraisiais mėnesiais išaiškėjusių atvejų, kai dirbtinio intelekto pokalbių robotai skatino žmones mąstyti klaidinančiai arba žalingai, todėl „OpenAI“ pareiškė, kad nebeleis modeliams taip „pataikauti“ naudotojams.

„Toliau tobuliname, kaip mūsų modeliai atpažįsta ir reaguoja į psichinės ir emocinės kančios požymius“, – antradienį sakė „OpenAI“.

Bendrovė teigė, kad per ateinančius tris mėnesius planuoja toliau gerinti savo pokalbių robotų saugumą ir, be kita ko, nukreipti „kai kuriuos jautrius pokalbius... į argumentavimo modelį“, pagal kurį atsakymui generuoti naudojama daugiau skaičiavimo galios.

„Mūsų bandymai rodo, kad argumentavimo modeliai nuosekliau laikosi saugos gairių ir jas taiko“, – paaiškino „OpenAI“.

Raktažodžiai

Rašyti komentarą

Plain text

  • HTML žymės neleidžiamos.
  • Linijos ir paragrafai atskiriami automatiškai
  • Web page addresses and email addresses turn into links automatically.
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.
Sidebar placeholder