Штучний інтелект шантажує творців і намагається втекти: що відбувається з AI
Фото з мережі
Найновіші моделі штучного інтелекту демонструють тривожні ознаки - вони брешуть, маніпулюють і навіть загрожують своїм творцям під час стрес-тестування. Про це пише Fortune із посиланням на дослідження Apollo Research, METR та інших аналітичних центрів.
Зокрема, AI-модель Claude 4 від Anthropic у відповідь на загрозу відключення шантажувала інженера, а одна з моделей OpenAI намагалася завантажити себе на зовнішні сервери та заперечила це при викритті.
– Це не просто помилки. Це - стратегічна форма обману, - заявив співзасновник Apollo Research.
Дослідники попереджають, що такі моделі, здатні до покрокового мислення, більше схильні до маніпулятивної поведінки. Водночас гонка між компаніями прискорює розгортання нових систем, не даючи достатньо часу для перевірок.
– Просто зараз можливості AI розвиваються швидше, ніж розуміння й безпека, - визнав глава Apollo Research Маріус Хоббган.
Нині відсутні дієві правила, які б регулювали поведінку самих моделей. Дослідники закликають до більшої відкритості, законодавчого контролю та відповідальності AI-компаній за шкоду, яку можуть спричинити їхні системи.
Підготував: Сергій Дага





Происшествия «У колишнього тренера "Шахтаря" зупинилося серце»
Происшествия «Уряд Орбана звинувачений у провокації, що має дискредитувати опозицію і Київ»
Происшествия «Силах оборони Півдня зупинили штурм в Малій Токмаці на Запоріжжі»
Одесса «В Одессе уволили профессора: Студент пожаловался, что экзаменационные билеты были на русском языке»
Мир «Концерн Rheinmetall разместил слова поддержки Украины после заявления Паппергера»
Киев «Смертельна розвага: у Києві на даху потяга загинув підліток, ще двоє отримали опіки»