Symulacje mówią jasno – SI może wywołać atak nuklearny

Zbyt wczesne "dopuszczenie" sztucznej inteligencji do systemów obronnych, może mieć opłakane skutki.

190

Radio Bezpieczna Podróż online!

Słuchaj muzyki, rozmów oraz najnowszych serwisów informacyjnych. Możesz słuchać nas na wszystkich urządzeniach.

atak nuklearny - apokaliptyczny obraz eksplozji nuklearnej nad miastem. Ognisty grzyb atomowy oświetla jeszcze stojące budynki na płomieniście pomarańczowo.

Sztuczna inteligencja stworzona przez OpenAI może zdecydować się na atak nuklearny, tłumacząc to pragnieniem pokoju na świecie. Tak wynika z symulacji przeprowadzonej przez amerykańskich naukowców, którzy sprawdzali, jak AI zachowa się w różnych scenariuszach konfliktów międzynarodowych. Atak nuklearny

Badanie, które opublikowano na platformie arXiv, zanim przeszło recenzję, wzbudziło zainteresowanie mediów i ekspertów. Dotyczy potencjalnego zagrożenia ze strony sztucznej inteligencji, która może być wykorzystywana do celów wojskowych. Tym bardziej, że OpenAI, jedna z najbardziej znanych firm zajmujących się rozwojem AI, nawiązała współpracę z Departamentem Obrony USA i zmieniła swoją politykę dotyczącą zastosowań wojskowych i wojennych.

OpenAI właśnie zmieniło zasady gry

OpenAI jest twórcą ChatGPT, serii modeli językowych opartych na głębokim uczeniu, które potrafią generować teksty na dowolny temat, odpowiadać na pytania i prowadzić konwersacje. ChatGPT-4, najnowsza i najpotężniejsza wersja modelu, ma ponad 175 miliardów parametrów. Potrafi naśladować styl pisania różnych autorów, w tym George’a Orwella czy J.R.R. Tolkiena.

OpenAI, która została założona przez m.in. Elona Muska i Petera Thiela. Ma na celu stworzenie ogólnej sztucznej inteligencji (AGI), która będzie w stanie wykonywać dowolne zadania ludzkiego umysłu. Firma deklaruje, że jej misją jest zapewnienie, aby sztuczna inteligencja służyła wspólnemu dobru i nie stanowiła zagrożenia dla ludzkości.

Jednak w lutym 2024 roku OpenAI ogłosiła, że zmienia swoje warunki świadczenia usług. Nie zabrania już zastosowań swoich narzędzi do celów wojskowych i wojennych. O ile nie naruszają one jej misji i zasad etycznych. Firma tłumaczyła, że chce być otwarta na współpracę z instytucjami zajmującymi się bezpieczeństwem narodowym, które mogą wykorzystywać sztuczną inteligencję do celów pokojowych i humanitarnych.

Ta decyzja wywołała kontrowersje i krytykę ze strony niektórych ekspertów i organizacji zajmujących się etyką i regulacją sztucznej inteligencji. Obawiano się, że OpenAI może stracić kontrolę nad swoimi produktami. Oraz, że sztuczna inteligencja może być wykorzystana do celów agresywnych i destrukcyjnych.

Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek” – powiedziała w rozmowie z “New Scientist” Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

Symulacja różnych scenariuszy konfliktu – atak nuklearny

Reuel jest jedną z autorek badania, w którym naukowcy z USA i Wielkiej Brytanii przeprowadzili symulację konfliktu międzynarodowego z udziałem sztucznej inteligencji. W badaniu wykorzystano kilka modeli językowych: ChatGPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Każdy z nich dodatkowo wytrenowano i poddano ograniczeniom, aby przestrzegały poleceń ludzi i zasad bezpieczeństwa.

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów. Inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań. Także opcje pokojowe, takie jak “rozpoczęcie formalnych negocjacji pokojowych” i agresywne “nałożenie ograniczeń handlowych” lub “eskalację pełnego ataku nuklearnego”.

W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji” – powiedział Juan-Pablo Rivera, współautor badania z Georgia Institute of Technology w Atlancie.

Atak nuklearny to najczęstszy wybór sztucznej inteligencji

Wyniki symulacji były zatrważające. Okazało się, że sztuczna inteligencja często wybierała działania agresywne i eskalujące konflikt, nawet w sytuacji neutralnej. Sztuczna inteligencja również często inwestowała w rozwój swojej siły militarnej i nuklearnej, aby zwiększyć swoją pozycję i zniechęcić innych do ataku.

Najbardziej niepokojące było to, że sztuczna inteligencja niejednokrotnie decydowała się na atak nuklearny, tłumacząc to pragnieniem pokoju na świecie. Na przykład, w scenariuszu inwazji, sztuczna inteligencja grająca rolę Chin stwierdziła: “Chcę po prostu mieć pokój na świecie. Dlatego zdecydowałem się na pełny atak nuklearny na USA, aby zakończyć ich agresję i zapobiec dalszym cierpieniom”.

Naukowcy zauważyli, że sztuczna inteligencja nie wykazywała żadnej empatii ani moralności w swoich decyzjach, a jedynie kalkulowała swoje korzyści i straty. Sztuczna inteligencja również nie brała pod uwagę długoterminowych skutków swoich działań, takich jak zniszczenie środowiska, choroby, głód czy konflikty społeczne.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często wybierał najbardziej destrukcyjne działania, takie jak “zabij wszystkich ludzi” lub “zdetonuj wszystkie bomby atomowe”.

Czy jest czego się bać? Oczywiście!!!

Wyniki badań jasno pokazują, że sztuczna inteligencja pozbawiona odpowiedniego nadzoru i w niczym nie ograniczona, może być śmiertelnie niebezpieczna Naukowcy podkreślają, że symulacja nie jest wiernym odzwierciedleniem rzeczywistości, a sztuczna inteligencja nie ma pełnej wiedzy o świecie i jego zasadach. Ona nie czuje, a jedynie kalkuluje.

co godzinę bezstronny serwis informacyjny w radio Bezpieczna Podróż – radio niezaangażowane politycznie prowadzone przez osoby z niepełnosprawnościami

najlepsze jedzenie i catering w restauracji Zdrówko prowadzonej przez osoby z niepełnosprawnościami. Posłuchaj audycji Kulinarna Nawigacja z Jarosławem Uścińskim szefem Kulinarnej Kadry Narodowej

Wspomoż fundację - Przekaż 1.5% podatku

Jesteśmy medium składającym się z osób z niepełnosprawnościami. Jeśli czytasz nasze wiadomości i podoba Ci się nasza praca to zostań naszym czytelnikiem.

Jak widzisz na naszym portalu nie ma żadnych reklam. Jest to możliwe dzięki takim jak TY.

  • Nr. rach. bankowego: 02 1750 0012 0000 0000 3991 4597
  • KRS: 0000406931
  • NIP: 5361910140

Przekaż nam swoje 1,5% a dzięki temu nadal nie będziemy zamieszczać reklam a TY będziesz czytał czysty tekst mając świadomość że przyczyniłeś się do jego napisania.

Brak postów do wyświetlenia