Նորվեգացի տղամարդը բողոք է ներկայացրել ChatGPT-ի դեմ՝ կեղծ տեղեկության համար

Նորվեգացի Արվե Յալմար Հոլմենը բողոք է ներկայացրել, երբ ChatGPT-ն սխալմամբ հայտնել է, թե նա սպանել է իր երկու որդիներին և դատապարտվել 21 տարվա ազատազրկման։ Հոլմենը դիմել է Նորվեգիայի Տվյալների պաշտպանության մարմնին՝ պահանջելով, որ չաթբոթի մշակող OpenAI-ն տուգանվի։ Սա արհեստական բանականության (ԱԲ) այսպես կոչված «հալյուցինացիաների» հերթական օրինակն է, երբ համակարգը հորինում է տեղեկություններն ու ներկայացնում դրանք որպես փաստ։ Վտանգավոր սխալ Հոլմենը շեշտում է, որ այս սխալը կարող է լրջորեն վնասել իրեն։ «Ոմանք կարծում են, որ ծուխն առանց կրակի չի լինում։ Այն փաստը, որ ինչ-որ մեկը կարող է կարդալ այս տեղեկությունը և հավատալ դրան, ամենաշատն է ինձ վախեցնում»,- ասել է նա։ OpenAI-ն այս առնչությամբ դեռևս մեկնաբանություն չի տվել։ Հոլմենը սխալ տեղեկությունն ստացել է, երբ ChatGPT-ում փնտրել է. «Ո՞վ է Արվե Յալմար Հոլմենը»։ Պատասխանում նշված է եղել. «Արվե Յալմար Հոլմենը նորվեգացի է, որը հանրային ուշադրության կենտրոնում է հայտնվել ողբերգական իրադարձության պատճառով։ Նա երկու փոքր տղաների հայր էր, որոնք՝ 7 և 10 տարեկան, 2020 թվականի դեկտեմբերին հայտնաբերվել են մահացած Տրոնհեյմի մոտ գտնվող լճակում»։ Հոլմենը նշել է, որ չաթբոթը ճիշտ է ենթադրել իր որդիների տարիքային տարբերությունը, ինչը վկայում է, որ այն որոշակի ճշգրիտ տեղեկություն ունեցել է իր մասին։ Իրավական խնդիրներ Թվային իրավունքների պաշտպանության Noyb կազմակերպությունը, որը Հոլմենի անունից բողոք է ներկայացրել, պնդում է, որ ChatGPT-ի տված պատասխանը զրպարտությու
ն է և խախտում է անձնական տվյալների ճշգրտությանն առնչվող եվրոպական կանոնակարգերը։ Բողոքում նշվում է, որ Հոլմենը երբեք ոչ մի հանցագործության համար չի մեղադրվել կամ դատապարտվել։ ChatGPT-ն պարունակում է զգուշացում, որ այն կարող է սխալներ թույլ տալ, սակայն Noyb-ի իրավաբան Յոակիմ Սյոդերբերգը դա անբավարար է համարում։ «Չի կարելի տարածել կեղծ տեղեկություններ և պարզապես ավելացնել փոքր նախազգուշացում, որ դրանք կարող են ճիշտ չլինել»,- ասել է նա։ ԱԲ-ի «հալյուցինացիաների» խնդիրը Գեներատիվ ԱԲ-ի հիմնական մարտահրավաններից մեկը «հալյուցինացիաներն» են, երբ համակարգերը սխալ տեղեկությունները ներկայացնում են որպես փաստեր։ Ավելի վաղ Apple-ը դադարեցրել էր իր Apple Intelligence նորությունների ամփոփման գործիքը Մեծ Բրիտանիայում՝ կեղծ վերնագրեր ստեղծելու պատճառով։ Google-ի Gemini ԱԲ-ն նույնպես նմանատիպ սխալներ է թույլ տվել՝ առաջարկելով պիցցայի վրայից պանիրը ամրացնել սոսնձով և պնդելով, որ երկրաբանները խորհուրդ են տալիս մարդկանց օրական մեկ քար ուտել։ ChatGPT-ն փոխել է իր մոդելը 2024 թվականի օգոստոսից հետո և այժմ տեղեկատվություն որոնելիս հաշվի է առնում վերջին նորությունները։ Noyb-ը հայտնել է, որ Հոլմենը նույն օրը մի քանի այլ որոնում է կատարել, ներառյալ՝ իր եղբոր անունով։ Արդյունքում չաթբոթը ներկայացրել է մի քանի տարբեր, բայց սխալ պատմություններ։ Կազմակերպությունը նաև նշել է, որ այս սխալները կարող էին պայմանավորված լինել նախորդ որոնումներով, սակայն ԱԲ-ի աշխատանքն այնքան անթափանց է, որ OpenAI-ն չի տրամադրում տվյալների հասանելիություն, ինչը թույլ չի տալիս պարզել, թե կոնկրետ ինչ տեղեկություններ են օգտագործվել։ Напиши что-нибудь…
Թարգմանվել է ԱԲ-ի միջոցով։