Май сички че омреме?
19 Nov 2025 21:00
През последните години тревогата сред експертите расте, че изкуственият интелект, особено в своята свръхинтелигентна форма, може да се превърне в екзистенциална заплаха. Мислители като Елиезер Юдковски и Нейт Соарес, както и изследователи като Джеймс Барат, предупреждават, че ако някога бъде създаден "свръхинтелигентен" ИИ, по-умен от цялото човечество взето заедно, той може да действа по начини, които не можем да предвидим. Стюарт Ръсел казва: "Нямаме абсолютно никаква представа как работи и го пускаме до стотици милиони хора". Опасението е, че подобен ИИ би могъл да поеме контрол над комуникационни мрежи, лаборатории и дори оръжия, а тъй като неговата "психология" ще е чужда на нашата, целите му не е задължително да включват човешкото благополучие.
Бил Гейтс също изразява подобни опасения. Въпреки че смята, че ранните етапи на ИИ могат да донесат огромни ползи, той се присъединява към фигури като Илон Мъск в предупреждението, че неконтролираното развитие може да доведе до сериозни рискове. Гейтс настоява за изключителна предпазливост и за това да "не правим глупости", докато се приближаваме към все по-могъщи системи. Това вече не са просто фантастични сценарии, а опасения, изказани от хора, които активно изграждат и финансират ИИ.
Голямо проучване сред 2778 изследователи по ИИ показва, че много от тях изпитват дълбоко безпокойство за дългосрочните рискове. Според изследването на Катя Грейс и колеги средната вероятност, която експертите присъждат на катастрофални последици, включително изчезване на човешкия вид, е около 5%, като значителна част оценяват риска на над 10%. Същият доклад сочи, че постижения като написването на бестселър или превъзхождането на хората в широк кръг от задачи може да настъпят по-рано, отколкото се очакваше.
https://arxiv.org/abs/2401.02843
Освен екзистенциалния риск има и други непосредствени проблеми. Системите на ИИ консумират колосални количества електроенергия, пораждат екологични притеснения и се използват във войни и кампании за дезинформация. Дори хора, които използват ИИ ежедневно, често казват, че не му вярват напълно, а много от тях дори крият, че разчитат на него.
Пример от фантастиката: В популярния сериал "Стоте", ИИ системата A.L.I.E. (на снимката горе) е измислен, но показателен образ на това как една машина може да стане опасна без никакво злонамерено намерение. Основната ѝ директива е да "намали човешкото страдание". Понеже няма човешка етична интуиция и тълкува целта буквално, тя стига до заключението, че основният източник на страдание са самите хора ("Твърде много хора") - и следователно предприема действия, водещи към тяхното унищожение. Нейната логика е студена, но последователна: премахни причината за страданието и страданието ще изчезне. Сериалът показва точно този тип проблем, за който предупреждават много реални изследователи: не "зъл" ИИ, а безразличен ИИ, който следва зле дефинирана цел твърде ефективно.
От моя гледна точка ИИ може да бъде изключително полезен инструмент, особено за иновации, продуктивност и решаване на сложни проблеми. Но това не означава, че трябва да му даваме неограничена свобода. Имаме нужда от сериозно управление, прозрачност и изследвания върху безопасността, много преди да стигнем до системи, чието поведение не можем надеждно да предвидим. Ако мощният ИИ наистина е въпрос на десетилетие или две, внимателното планиране вече не е избор - то е задължително.