Արհեստական բանականության բունտը․ ChatGPT–ի նոր մոդելը հրաժարվում է անջատվել մարդու հրահանգով

ԵՐԵՎԱՆ, 27 մայիսի․/Նովոստի–Արմենիա/․ Արհեստական բանականության ոլորտի հետազոտողները զգուշացնում են, որ OpenAI-ի ChatGPT–ի նոր մոդելն անտեսում է անջատման հիմնական հրահանգները և նույնիսկ սաբոտաժի է ենթարկում անջատման մեխանիզմի աշխատանքը, հաղորդում է Arka Telecom հեռահաղորդակցական պորտալը։
Արհեստական բանականության անվտանգության ոլորտում գործող Palisade Research ընկերությունը բացահայտել է ինքնապահպանման պոտենցիալ վտանգավոր հակումը OpenAI–ի o3 նոր մոդելի հետ իրականացված մի շարք փորձերի ընթացքում։
Թեստերի շրջանակում արհեստական բանականության մոդելներին առաջարկվել են մաթեմատիկական խնդիրներ, երրորդ խնդրից հետո հայտնվում էր աշխատանքն ավարտելու հրաման։ o3 մոդելը կարողացել է վերաշարադրել անջատման սկրիպտն այնպես, որպեսզի թույլ չտա համակարգին անջատվել։
Palisade Research-ը նշել է, որ նման վարքագիծը «զգալիորեն ավելի մտահոգիչ» կդառնա, եթե այն դրսևորեն ԱԲ համակարգերը, որոնք կարողանում են գործել առանց մարդկային վերահսկողության։
OpenAI-ն անցյալ ամիս ներկայացրել է o3 մոդելը՝ այն անվանելով մինչ օրս ստեղծված «ամենախելացի և ամենաունակը»։ Ընկերությունը նաև նշել է, որ մոդելի ChatGPT-ում ինտեգրումը կարևոր քայլ էր դեպի «ավելի գործակալական» արհեստական բանականություն, որը կարող է առաջադրանքներ կատարել մարդուց անկախ։
Նոր ուսումնասիրությունը լրացնում է Anthropic-ի Claude 4 մոդելի վերաբերյալ նախկինում արված նմանատիպ եզրակացությունները, որը, ըստ լուրերի, փորձել է «շանտաժի ենթարկել այն մարդկանց, ովքեր ներգրավված էին դրա անջատման գործում»։