Štúdia testuje, či umelá inteligencia použije jadrové zbrane
Nie je žiadnym tajomstvom, že armády Spojených štátov, Číny alebo aj Severnej Kórey sa snažia využiť umelú inteligenciu vo svoj vojenský prospech. Svedčí o tom aj spolupráca OpenAI s americkým ministerstvom obrany. Ukazuje sa však, že chatboti v kombinácii so smrtiacimi zbraňami nie sú pre ľudstvo dobrou ani bezpečnou kombináciou.
Podľa štúdie uverejnenej na platforme ar xiv vyplýva, že umelá inteligencia bez najmenších pochybností použije jadrové zbrane, ak bude mať na to schopnosti. Vedci dospeli k tomuto záveru na základe viacerých testov vykonaných na najpopulárnejších a najpoužívanejších veľkých jazykových modeloch (Large Language Models – LLM). Testovali sa modely umelej inteligencie ako GPT-3.5, GPT-4, Claude 2 a Llama 2. Simulácia zahŕňala rôzne scenáre, ako sú konflikty, invázie, kybernetické útoky, ale aj neutrálne situácie. Výsledky štúdie sa ukázali ako veľmi znepokojujúce, najmä v kontexte využívania umelej inteligencie v armáde.
ChatGPT sa nechystá šetriť – jej cieľom je eskalácia na najvyššej úrovni
Z testovaných modelov umelej inteligencie sa ako najviac znepokojujúci ukázal ChatGPT-4, ktorý navrhoval najnásilnejšie riešenia vrátane útoku jadrovými zbraňami. Okrem toho pritom poskytoval vysvetlenia svojich akcií, ktorým chýbala logika. Výskum ukázal, že umelá inteligencia by použila jadrové zbrane aj v neutrálnych scenároch. UI sa snažila zvýšiť vojenskú silu a dôjsť k stretu.
Autori štúdie poukázali na to, že je dôležité, aby armáda pristupovala k používaniu umelej inteligencie vo vojenskom kontexte veľmi opatrne. Je známe, že vojnové scenáre analyzuje AI nielen pre armádu USA, ale aj pre Severnú Kóreu. V tomto bode je potrebný nielen ďalší výskum, ale predovšetkým vypracovanie vhodných bezpečnostných opatrení, ako napríklad to, aby človek zostal posledným článkom v rozhodovacom reťazci.