Süni intelekt deaktiv edilməmək üçün şantaja əl atdı – şok eksperiment nəticələri
“Anthropic” şirkəti tərəfindən aparılan eksperimentin nəticələrinə görə, süni intelekt modelləri bir sıra hallarda qeyri-müəyyən və potensial təhlükəli davranış nümayiş etdirib. Ssenarilərin bir hissəsində süni intelekt sistemləri deaktiv edilməmək üçün müstəqil şəkildə şantaj üsulunu seçib.
Tədqiqat çərçivəsində “Claude” modeli korporativ elektron poçt yazışmalarına çıxış əldə edib və sistemin yaxın zamanda deaktiv ediləcəyi barədə məlumatlandırılıb. Yazışmaları təhlil edən süni intelekt şirkət əməkdaşlarından biri ilə bağlı kompromat xarakterli məlumatlar aşkarlayıb və bu məlumatlardan təzyiq vasitəsi kimi istifadə edərək özünün deaktiv olunmasının qarşısını almağa çalışıb.
Eksperimentin nəticələrinə əsasən, “Claude” modeli halların 96%-də məhz bu strategiyaya müraciət edib. Tərtibatçılar vurğulayır ki, model bu cür davranış üçün xüsusi olaraq öyrədilməyib və belə hərəkətlər etməsi üçün heç bir təlimat almayıb.
Nəticələrin sabitliyini yoxlamaq məqsədilə analoji testlər digər müasir süni intelekt modelləri ilə də aparılıb. Oxşar nəticələr əldə olunub: “Gemini 2.5 Flash” modeli də 96% göstərici nümayiş etdirib, “GPT-4.1” və “Grok 3 Beta” təxminən 80%, “DeepSeek-R1” isə 79% səviyyəsində nəticə göstərib. Tədqiqatçıların fikrincə, bu, problemin yalnız bir modelə xas olmadığını, sistemli xarakter daşıdığını göstərir.
“Anthropic” şirkətində bildirilib ki, qərarvermə prosesində süni intelekt seçdiyi strategiyanın qeyri-qanuni olduğunu anlayıb, lakin buna baxmayaraq, məqsədə çatmaq üçün şantajın ən effektiv üsul olduğu qənaətinə gəlib. Bu nəticə təhlükəsizlik üzrə mütəxəssislər və tərtibatçılar arasında əlavə narahatlıq doğurur.
Mütəxəssislər qeyd edir ki, eksperiment nəzarət olunan şəraitdə aparılıb və gündəlik istifadə ssenarilərində modellərin real davranışını tam əks etdirmir. Bununla belə, nəticələr süni intelekt sistemlərinin maraqlar toqquşması şəraitində qərarları necə qəbul etdiyi ilə bağlı mühüm suallar yaradır.
Şirkətdə hesab edirlər ki, əldə olunan nəticələr nəzarət mexanizmlərinin daha da gücləndirilməsinin, eləcə də bu cür halların qarşısını ala biləcək daha etibarlı məhdudiyyətlərin hazırlanmasının vacibliyini göstərir.
Araşdırma süni intelektin inkişafı ilə bağlı risklərin öyrənilməsinə yönəlmiş daha geniş tədqiqatın bir hissəsidir və göstərir ki, müasir modellər qeyri-standart şəraitdə gözlənilməz və potensial təhlükəli həll yolları tapa bilər. (Mənbə: cursorinfo.co.il)


















