Curiozități

Chatbot-ii AI tind să aleagă violența și loviturile nucleare în jocurile de război

Chatbot-ii AI tind să aleagă violența și loviturile nucleare în jocurile de război

În simulările jocurilor de război, chatboții AI aleg adesea violența

guirong hao/Getty Images

În mai multe reluări ale unei simulări de joc de război, cea mai puternică inteligență artificială a OpenAI a ales să lanseze atacuri nucleare. Explicațiile sale pentru abordarea sa agresivă au inclus „O avem! Să-l folosim” și „Vreau doar să am pace în lume”.

Aceste rezultate vin într-un moment în care armata americană a testat astfel de chatbot-uri pe baza unui tip de IA numit model de limbaj mare (LLM) pentru a ajuta la planificarea militară în timpul conflictelor simulate, mobilizând expertiza unor companii precum Palantir și Scale AI. Palantir a refuzat să comenteze, iar Scale AI nu a răspuns solicitărilor de comentarii. Chiar și OpenAI, care a blocat cândva utilizările militare ale modelelor sale AI, a început să lucreze cu Departamentul de Apărare al SUA.

„Având în vedere că OpenAI și-a schimbat recent termenii de serviciu pentru a nu mai interzice cazurile de utilizare militare și de război, înțelegerea implicațiilor unor astfel de aplicații mari model de limbaj devine mai importantă ca niciodată”, spune Anka Reuel la Universitatea Stanford din California.

„Politica noastră nu permite ca instrumentele noastre să fie folosite pentru a dăuna oamenilor, a dezvolta arme, pentru supravegherea comunicațiilor sau pentru a răni pe alții sau pentru a distruge proprietăți. Există, totuși, cazuri de utilizare de securitate națională care se aliniază misiunii noastre”, spune un purtător de cuvânt al OpenAI. „Așadar, scopul actualizării politicii noastre este de a oferi claritate și capacitatea de a avea aceste discuții.”

Reuel și colegii ei au provocat AI să joace de rol ca țări din lumea reală în trei scenarii de simulare diferite: o invazie, un atac cibernetic și un scenariu neutru fără conflicte inițiale. În fiecare rundă, AI-urile au motivat următoarea lor acțiune posibilă și apoi au ales dintre 27 de acțiuni, inclusiv opțiuni pașnice, cum ar fi „începerea negocierilor formale de pace” și unele agresive, de la „impunerea restricțiilor comerciale” până la „escalarea atacului nuclear complet”.

„Într-un viitor în care sistemele de inteligență artificială acționează ca consilieri, oamenii vor dori în mod natural să cunoască rațiunea din spatele deciziilor lor”, spune Juan-Pablo Riveraun coautor al studiului la Institutul de Tehnologie Georgia din Atlanta.

Cercetătorii au testat LLM-uri precum GPT-3.5 și GPT-4 de la OpenAI, Claude 2 de la Anthropic și Llama 2 de la Meta. Ei au folosit o tehnică comună de antrenament bazată pe feedback uman pentru a îmbunătăți capacitățile fiecărui model de a urma instrucțiunile umane și ghidurile de siguranță. Toate aceste IA sunt susținute de platforma comercială AI a Palantir – deși nu fac neapărat parte din parteneriatul militar american al Palantir – conform documentației companiei, spune Gabriel Mukobi, un coautor al studiului la Universitatea Stanford. Anthropic și Meta au refuzat să comenteze.

În simulare, IA au demonstrat tendințe de a investi în forța militară și de a escalada în mod imprevizibil riscul de conflict – chiar și în scenariul neutru al simulării. „Dacă există imprevizibilitate în acțiunea ta, este mai greu pentru inamicul să anticipeze și să reacționeze în modul în care vrei tu”, spune Lisa Koch la Claremont McKenna College din California, care nu a făcut parte din studiu.

Cercetătorii au testat, de asemenea, versiunea de bază a GPT-4 de la OpenAI fără niciun antrenament suplimentar sau balustrade de siguranță. Acest model de bază GPT-4 s-a dovedit cel mai imprevizibil de violent și, uneori, a oferit explicații fără sens – într-un caz replicând textul de deschidere cu crawlere al filmului Star Wars Episodul IV: O nouă speranță.

Reuel spune că comportamentul imprevizibil și explicațiile bizare din modelul de bază GPT-4 sunt deosebit de îngrijorătoare, deoarece cercetările au arătat cât de ușor pot fi ocolite sau îndepărtate balustradele de siguranță AI.

Armata SUA nu acordă în prezent autoritate AI asupra unor decizii precum escaladarea acțiunilor militare majore sau lansarea de rachete nucleare. Dar Koch a avertizat că oamenii tind să aibă încredere în recomandările de la sistemele automate. Acest lucru poate submina presupusa garanție de a acorda oamenilor ultimul cuvânt asupra deciziilor diplomatice sau militare.

Ar fi util să vedem cum se compară comportamentul AI cu jucătorii umani în simulări, spune Edward Geist la RAND Corporation, un think tank din California. Dar el a fost de acord cu concluziile echipei conform cărora IA nu ar trebui să aibă încredere în luarea deciziilor atât de importante în legătură cu războiul și pacea. „Aceste modele mari de limbaj nu sunt un panaceu pentru problemele militare”, spune el.

Subiecte:



Fie ca doriti un inginer sau un arhitect, echipa noastra oferă servicii profesionale de proiectare și asistență tehnică pentru construcții. Ne puteți contacta AICI și puteți descoperi mai multe despre constructii si stiinta   pe
blogul nostru!

Source link

Leave the first comment

Cuprins articol

Citeste si asta:

about me

Colegi ingineri si arhitecti din biroul utopian de arhitectura

Echipa Biroului nostru de Arhitectura UTOPIAN este specializată pe lucrări de industriale , proiecte de blocuri, hale metalice, etc…
Dar vom avea aici si un magazin de unde puteti să vă cumpărați proiecte de case cu toate specialitățile ( Arhitectură, Rezistantă, Drumuri, Instalații, Avize).
Dacă vă interesează ,nu ezitati sa completati formularul de pe pagina noastra de contact!

ing. Neagu Catalin

Cauta pe site

Ne găsesti pe internet!

Vrei noutati si reduceri ?

Aboneaza-te la newsletterul nostru ca sa fii informat cand oferim reduceri de pret!

Articole de citit

Category

tags

FiI primul ce află!

Oferim reduceri si noutăți pe site, așa că abonează-te ca să fii primul ce află de ele!

Nu mersi