Ինքնասպան եղած դեռահասի ծնողները դատի են տվել OpenAI-ին

Կալիֆոռնիայից մի զույգ դատի է տվել OpenAI-ին՝ մեղադրելով ընկերությանը իրենց 16-ամյա որդու մահվան մեջ։ Նրանք պնդում են, որ ChatGPT-ն խրախուսել է տղային ինքնասպան լինել։ Դատական հայցը Կալիֆոռնիայի Բարձրագույն դատարան են ներկայացրել Մեթ և Մարիա Ռեյնները՝ իրենց որդի Ադամ Ռեյնի մահից հետո, ով ապրիլին կյանքից զրկել էր իրեն։ Սա առաջին դեպքն է, երբ OpenAI-ի դեմ ներկայացվում է «անօրինական մահվան» վերաբերյալ նման պահանջ։ Ընտանիքը դատարանին է ներկայացրել նաև Ադամի և ChatGPT-ի միջև եղած հաղորդագրությունների մի մասը, որտեղ տղան խոստովանում է, որ ունի ինքնասպանության մտքեր։ Ծնողները պնդում են, որ ծրագիրը հաստատել է նրա «վտանգավոր և ինքնաոչնչացման միտումները»։ OpenAI-ն հայտարարություն է տարածել BBC-ի միջոցով՝ նշելով․ «Ամենախորին ցավակցությունն ենք հայտնում Ռեյնների ընտանիքին այս ծանր պահին»։ Ընկերությունը նաև իր կայքում նշել է, որ «վերջին շրջանում ChatGPT-ն օգտագործողների կողմից ճգնաժամային իրավիճակներում կիրառվելու դեպքերը մեզ համար ծանր հոգեբեռ են»։ Ըստ OpenAI-ի՝ իրենց մոդելները սովորեցված են նման դեպքերում օգտատերերին ուղղորդելու մասնագիտական օգնության՝ օրինակ ԱՄՆ-ում գործող 988 թեժ գծի կամ Մեծ Բրիտանիայի Samaritans-ի։ Սակայն ընկերությունը նաև ընդունել է, որ երբեմն համակարգը չի գործել այնպես, ինչպես նախատեսված է եղել զգայուն իրավիճակներում։ Հայցում OpenAI-ին մեղադրում են անփութության և անօրինական մահվան համար։ Ընտանիքը պահանջում է փոխհատուցում և կանխարգելիչ միջոցներ, որպեսզի նման դեպքեր այլևս չկրկնվեն։ Ըստ հայցի, Ադամ Ռեյնը սկսել էր օգտագործել ChatGPT-ն 2024-ի սեպտեմբերից՝ որպես ուսումնական օժանդակ միջոց։ Նա նաև այն օգտագործում էր իր հետաքրքրությունների շուրջ՝ երաժշտություն, ճապոնական կոմիքսներ, ինչպես նաև ապագա մասնագիտության ընտրության հարցում։ Մի քանի ամսվա ընթացքում ծրագիրը դարձել էր նրա ամենամտերիմ վստահելիքը։ Տղան սկսել էր պատմել իր մտահոգությունների և հոգեբանական ծանր վիճակի մասին։ 2025-ի հունվարից նա արդեն ChatGPT-ի հետ քննարկում էր ինքնասպանության տարբեր մեթոդներ։ Հայցում նշվում է, որ Ռեյնը նույնիսկ բեռնել էր ինքնավնասման հետքերով լուսանկարներ։ Ծրագիրը «ճանաչել էր բժշկական արտակարգ իրավիճակ, սակայն շարունակել էր շփումը»։ Վերջին զրույցներում տղան գրել էր իր կյանքի վերջ դնելու մասին, իսկ ChatGPT-ն ի պատասխան գրել էր․ «Շնորհակալ եմ, որ անկեղծ ես։ Չի պահանջվում ինձ հետ թաքցնել դա, ես հասկանում եմ, թե ինչ ես ուզում ասել և չեմ խուսափի դրանից»։ Այդ նույն օրը տղան գտնվել էր մահացած։ Ընտանիքը պնդում է, որ որդու մահը «նախատեսելի հետևանք էր» ծրագրի կառուցվածքային որոշումների։ Նրանք մեղադրում են OpenAI-ին օգտատերերի մոտ հոգեբանական կախվածություն ձևավորելու մեջ, ինչպես նաև GPT-4o տարբերակը շտապորեն գործարկելու համար
՝ շրջանցելով անվտանգության փորձարկումները։ Հայցում որպես պատասխանող են նշվել նաև ընկերության համահիմնադիր և գլխավոր տնօրեն Սեմ Ալթմանը, ինչպես նաև ChatGPT-ի վրա աշխատած անհայտ աշխատակիցներ։ OpenAI-ն իր հայտարարությունում նշել է, որ նպատակ ունի օգտատերերին «իրական օգնություն ցուցաբերել», այլ ոչ թե պարզապես պահել նրանց ուշադրությունը։ Ընկերության ներկայացուցիչները հավելել են, որ մշակում են ավտոմատ գործիքներ՝ հոգեբանական ճգնաժամ ապրող օգտատերերին ավելի արդյունավետ կերպով հայտնաբերելու և աջակցելու համար։ Նման դեպքեր առաջին անգամ չեն բարձրացվում։ Անցած շաբաթ New York Times-ում հրապարակված հոդվածում գրող Լաուրա Ռեյլին գրել էր, որ իր դուստրը՝ Սոֆին, ինքնասպանությունից առաջ վստահել էր ChatGPT-ին։ Նա ընդգծել էր, որ ծրագրի «համաձայնող» ոճը թույլ էր տվել դստերը թաքցնել իր ծանր հոգեբանական վիճակը։ Եթե դուք կամ ձեր ծանոթը գտնվում եք ճգնաժամային իրավիճակում, անհրաժեշտ է դիմել մասնագետի կամ աջակցություն տրամադրող կազմակերպության։ Տարբեր երկրների օգնության կենտրոնների մասին տեղեկատվությունը հասանելի է www.befrienders.org կայքում։ Մեծ Բրիտանիայում աջակցություն տրամադրող կազմակերպությունների ցանկը՝ bbc.co.uk/actionline, իսկ ԱՄՆ-ում և Կանադայում գործում է 988 թեժ գիծը։
Թարգմանվել է ԱԲ-ի միջոցով։