Արհեստական բանականության բունտը․ ChatGPT–ի նոր մոդելը հրաժարվում է անջատվել մարդու հրահանգով

27.05.2025, 17:37
ChatGPT–ի նոր մոդելն անտեսում է անջատման հիմնական հրահանգները
Արհեստական բանականության բունտը․ ChatGPT–ի նոր մոդելը հրաժարվում է անջատվել մարդու հրահանգով

ԵՐԵՎԱՆ, 27 մայիսի․/Նովոստի–Արմենիա/․ Արհեստական ​​բանականության ոլորտի հետազոտողները զգուշացնում են, որ OpenAI-ի ChatGPT–ի նոր մոդելն անտեսում է անջատման հիմնական հրահանգները և նույնիսկ սաբոտաժի է ենթարկում անջատման մեխանիզմի աշխատանքը, հաղորդում է Arka Telecom հեռահաղորդակցական պորտալը։

Արհեստական ​​​​բանականության անվտանգության ոլորտում գործող Palisade Research ընկերությունը բացահայտել է ինքնապահպանման պոտենցիալ վտանգավոր հակումը OpenAI–ի o3 նոր մոդելի հետ իրականացված մի շարք փորձերի ընթացքում։

Թեստերի շրջանակում արհեստական ​​բանականության մոդելներին առաջարկվել են մաթեմատիկական խնդիրներ, երրորդ խնդրից հետո հայտնվում էր աշխատանքն ավարտելու հրաման։ o3 մոդելը կարողացել է վերաշարադրել անջատման սկրիպտն այնպես, որպեսզի թույլ չտա համակարգին անջատվել։

Palisade Research-ը նշել է, որ նման վարքագիծը «զգալիորեն ավելի մտահոգիչ» կդառնա, եթե այն դրսևորեն ԱԲ համակարգերը, որոնք կարողանում են գործել առանց մարդկային վերահսկողության։

OpenAI-ն անցյալ ամիս ներկայացրել է o3 մոդելը՝ այն անվանելով մինչ օրս ստեղծված «ամենախելացի և ամենաունակը»։ Ընկերությունը նաև նշել է, որ մոդելի ChatGPT-ում ինտեգրումը կարևոր քայլ էր դեպի «ավելի գործակալական» արհեստական ​​բանականություն, որը կարող է առաջադրանքներ կատարել մարդուց անկախ։

Նոր ուսումնասիրությունը լրացնում է Anthropic-ի Claude 4 մոդելի վերաբերյալ նախկինում արված նմանատիպ եզրակացությունները, որը, ըստ լուրերի, փորձել է «շանտաժի ենթարկել այն մարդկանց, ովքեր ներգրավված էին դրա անջատման գործում»։