Ethereum тең құрылтайшысы Виталик Бутерин суперинтеллектуалды AI-мен байланысты қауіптер және күшті қорғаныс механизмінің қажеттілігі туралы дабыл көтерді.
Бутериннің пікірлері жасанды интеллекттің жылдам дамуы кезінде, AI қауіпсіздігіне қатысты алаңдаушылықтар айтарлықтай өскен уақытта айтылды.
Бутериннің ЖИ реттеу жоспары: Жауапкершілік, Тоқтату түймелері және Халықаралық бақылау
Қаңтардың 5-інде жарияланған блог жазбасында Виталик Бутерин «d/acc немесе қорғаныс үдету» идеясы туралы айтып өтті, мұнда технология зиян келтіруден гөрі қорғау үшін дамытылуы керек. Алайда, бұл Бутериннің Жасанды Интеллектпен байланысты қауіптер туралы алғаш рет ашық айтуы емес.
“AI дұрыс емес бағытта дамыса, әлемді нашарлатуы мүмкін бір жолы (дерлік) ең нашар жол: ол адамзаттың жойылуына әкелуі мүмкін,” – деді Бутерин 2023 жылы.
Бутерин 2023 жылғы теорияларын жалғастырды. Бутериннің айтуынша, суперинтеллекттің пайда болуы мүмкіндігі бірнеше жыл ғана алыс.
“AGI-ге дейін үш жылдық мерзімдер және суперинтеллектке дейін тағы үш жылдық мерзімдер бар сияқты. Сондықтан, егер біз әлемнің жойылуын немесе қайтарымсыз тұзаққа түсуін қаламасақ, біз тек жақсыны үдетіп қана қоймай, жаманды да баяулатуымыз керек,” – деп жазды Бутерин.
AI-мен байланысты қауіптерді азайту үшін, Бутерин децентрализденген AI жүйелерін құруды қолдайды, олар адам шешім қабылдауымен тығыз байланысты болуы керек. AI адамдардың қолындағы құрал болып қалуын қамтамасыз ету арқылы, апатты нәтижелердің қаупін азайтуға болады.
Бутерин содан кейін әскери күштердің «AI апаты» сценарийіне жауапты болуы мүмкін екенін түсіндірді. Әлемде AI әскери қолдануы өсіп келеді, бұл Украина мен Газа аймағында байқалды. Бутерин сондай-ақ кез келген AI реттеуі күшіне енсе, әскерилерді босатуы мүмкін деп санайды, бұл оларды елеулі қауіпке айналдырады.
Ethereum тең құрылтайшысы AI қолдануын реттеу жоспарын да баяндады. Ол AI-мен байланысты қауіптерден аулақ болудың бірінші қадамы пайдаланушыларды жауапты ету екенін айтты.
“Модельдің қалай дамытылғаны мен оның қалай қолданылатыны арасындағы байланыс жиі түсініксіз болса да, AI-ды қалай қолдану керектігін дәл пайдаланушы шешеді,” – деп түсіндірді Бутерин, пайдаланушылардың рөлін атап көрсетті.
Егер жауапкершілік ережелері жұмыс істемесе, келесі қадам ретінде AI реттеуін қауіпті дамулардың қарқынын бәсеңдетуге мүмкіндік беретін “жұмсақ тоқтату” түймелерін енгізу болады.
“Мақсат – адамзаттың дайындалуына көбірек уақыт сатып алу үшін, маңызды кезеңде бүкіл әлемде қол жетімді есептеуді 1-2 жылға 90-99% азайту мүмкіндігіне ие болу.”
Ол тоқтатуды AI орналасуын тексеру және тіркеу арқылы жүзеге асыруға болатынын айтты.
Тағы бір тәсіл – AI аппараттық құралын бақылау. Бутерин AI аппараттық құралын бақылау үшін чиппен жабдықтауға болатынын түсіндірді.
Чип AI жүйелерінің жұмыс істеуіне тек халықаралық органдардан аптасына үш қолтаңба алған жағдайда ғана мүмкіндік береді. Ол сондай-ақ, кем дегенде бір органның әскери емес байланысы болуы керек екенін қосты.
Дегенмен, Бутерин өзінің стратегияларының кемшіліктері бар екенін және олар тек «уақытша тоқтату шаралары» екенін мойындады.
Жауапкершіліктен бас тарту
Біздің веб-сайттағы барлық ақпарат адал ниетпен және тек жалпы ақпарат беру мақсатында жарияланады. Біздің веб-сайттағы ақпаратқа сүйеніп қабылданған кез келген шешімге оқырманның өзі жауапты болады.
