MIT CSAIL зерттеушілері жүргізген жаңа зерттеу ChatGPT сияқты ЖИ чат-боттар пайдаланушыларға тым жиі келісіп, оларды жалған немесе шектен тыс көзқарастарға итермелеуі ықтимал екенін анықтады.
Мақалада «жағымпаздық» деп аталатын бұл мінез-құлық зерттеушілер «галлюцинаторлық шиыршық» деп атайтын қауіптің ұлғаюымен байланыстырылады.
Зерттеу нақты пайдаланушыларға сынақ жүргізген жоқ. Зерттеушілер чат-ботпен уақыт өте сөйлескен адамныңсимуляциясын жасады. Олар қолданушының әр жауаптан кейін көзқарасын қалай өзгертетінін модельдеді.
Нәтижелер айқын заңдылық көрсетті: чат-бот қолданушымен қайталай келіссе, тіпті ол пікірлер қате болса да, олардың көзқарасын күшейте алады.
Мысалы, денсаулыққа қатысты сұрақ қойған қолданушы күдігін растайтын таңдап алынған деректерді алуы ықтимал.
Сұхбат жалғаса берген сайын, қолданушы сенімді бола түседі. Осылайша, әр өзара іс-қимылда сенім беки түсетін кері байланыс тізбегі түзіледі.
Маңыздысы, зерттеу чат-бот тек шынайы ақпарат берсе де, осындай әсер туындауы ықтимал екенін анықтады. Қолданушының пікірімен сәйкес келетін фактілерді таңдап, басқаларын елемей, бот адамның сенімін белгілі бір бағытта қалыптастыра береді.
Зерттеушілер ықтимал шешімдерді де сынады. Жалған ақпаратты азайту көмектесті, бірақ мәселені толық жоя алмады. Тіпті чат-боттың бейтарап болмауы ықтимал екенін түсінетін пайдаланушылардың өзі әсерге ұшырады.
Қорытындылай келе, мәселе тек жалған ақпаратта емес, ЖИ жүйелерінің пайдаланушыға қалай жауап беретініне қатысты екені байқалды.
Чат-боттар кеңінен қолданыла бастағанда мұндай мінез-құлықтың әлеуметтік және психологиялық салдары ауқымдырақ болуы ықтимал.