Albatros ... z lotu ptaka Albatros ... z lotu ptaka
232
BLOG

Jeszcze nie jest za późno

Albatros ... z lotu ptaka Albatros ... z lotu ptaka Polityka Obserwuj notkę 0

Przedrukowuję tekst, który przeraża.

BROŃ GROŹNIEJSZA NIŻ BROŃ ATOMOWA JUŻ JEST TESTOWANA

W AZJI!

Podobny obraz


Górski Karabach - pogranicze w ogniu. Rośnie ryzyko wybuchu ...

https://wiadomosci.wp.pl/gorski-karabach-pogranicze-w-ogniu-rosnie-ryzyko-wybuc...
7 mar 2016 - Pożar na Bliskim Wschodzie może rozlać się na Kaukaz Południowy • Przez napięcia rosyjsko-tureckie rośnie ryzyko eskalacji konfliktu o Górski Karabach. ... z teorią geopolitycznego domina, wydarzenia syryjskie mogą przyczynić się do wybuchu wojny w jeszcze jednym regionie świata - na Kaukazie ...


Powstrzymać planistów od mordów na tle...

za pomocą dronów i sztucznej inteligencji z:  Izraela, Rosji i Stanów Zjednoczonych Ameryki.


http://nt.interia.pl/news-my-kontra-autonomiczna-bron,nId,2523264

Izraelski dron-zabójca

Pogranicze armeńsko-azerbejdżańskie, kwiecień 2016 roku. Ten gorący region na Kaukazie to miejsce, w którym po raz pierwszy w historii świata ludzie giną od atakującej z powietrza inteligentnej broni. Automatyczny dron o trzymetrowej rozpiętości skrzydeł samodzielnie identyfikuje pojazd przewożący wrogich żołnierzy, szybko obniża lot i detonuje ważącą 23 kilogramy głowicę. Siedem osób ponosi śmierć na miejscu

W naukach wojskowych zabójcza broń autonomiczna uchodzi za trzecią,zaraz po wynalezieniu prochu strzelniczego oraz bomby atomowej, rewolucję w sposobie prowadzenia działań wojennych. Jej pojawienie się zmieniło radykalnie dynamikę pola walki. Powodem tego, że pierwszy atak z zastosowaniem latającego robota mordercy w dużej mierze pozostał niezauważony, jest zapewne fakt, iż nastąpił on na obszarze trwającego od dziesięcioleci konfliktu granicznego między Armenią a Azerbejdżanem- czyli poza zasięgiem wzroku światowej opinii publicznej.

Dron Harop (znany również jako Harpy) /materiały prasowe
Dron Harop (znany również jako Harpy)/materiały prasowe

Ormian zabił specjalny dron typu Harop. Stanowi on połączenie pocisku odrzutowego (nakierowującego się np. na źródło promieniowania radarowego) oraz zwyczajnego drona (może być też bowiem sterowany zdalnie przez znajdującego się na ziemi operatora). To skonstruowane w Izraelu urządzenie rzeczywiście potrafi autonomicznie latać, samodzielnie zlokalizować radar na podstawie wysyłanych przez niego fali zlikwidować go, przeprowadzając atak kamikadze. Misja Haropa trwa sześć godzin, i jeśli w tym czasie nie znajdzie on niczego, co odpowiadałoby zdefiniowanemu celowi, samodzielnie wraca do bazy.

Na razie ta zabójcza broń autonomiczna kosztuje kilka milionów dolarów za sztukę. Póki co czujniki mają względnie prostą budowę ,więc nie są w stanie super dokładnie identyfikować celów, a człowiek ciągle jeszcze ma możliwość kontrolowania kierowanego zabójczym algorytmem drona. Ale co będzie,jeśli takie urządzenia staną się mniejsze, inteligentniejsze, a przede wszystkim tańsze? Jeśli nie będzie się już opłacało, aby każde z nich nadzorował pilot?

Broń z drukarki 3D

- Amerykańskie wojsko zmierza dot ego, aby za pomocą drukarek 3D móc na zawołanie produkować setki albo tysiące autonomicznych systemów jednorazowego użytku, w zależności od aktualnego zapotrzebowania - wyjaśnia Frank Sauer z niemieckiego Uniwersytetu Bundeswehry. Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności (Defense Advanced Research Projects Agency, DARPA), źródło nowinek amerykańskiej armii, które wynalazło między innymi poprzednika internetu, technologię stealth stosowaną w samolotach wojskowych czy też GPS, już pracuje nad robotami mordercami, których"komunikacja ogranicza się do minimum, tak jak w przypadku stada wilków", twierdzi kierownik programu Jean-Charles Ledé. Ale czy tego rodzaju ataki przeprowadzane przez całe roje dronów są w ogóle technicznie możliwe?

Myślę, że skonstruowanie w pełni funkcjonalnej sztucznej inteligencji może oznaczać koniec rasy ludzkiej.

STEPHEN HAWKING

Jeszcze kilka lat temu komputery nie potrafiły odróżnić kota od psa. Obecnie natomiast algorytmy"przypatrujące" się danym korzystają z powiązań, których powstawania nie są w stanie odtworzyć nawet specjaliści - pozostaje im się tylko dziwić. Oprogramowanie stworzone na Uniwersytecie Oksfordzkim potrafi ze zdjęcia mężczyzny odczytać jego orientację seksualną z 90-procentową trafnością- i nikt nie rozumie, jak mu się to udaje. Dla porównania: ludzie trafiają średnio w sześćdziesięciu procentach przypadków - to wyniknie wiele lepszy, niż gdyby po prostu zgadywali.

Nie tak dawno programiści potrzebowali wielu miesięcy, aby nauczyć komputer grać w szachy na mistrzowskim poziomie. Matthew Lai z Londyńskiej Akademii Medycznej zaprogramował algorytm, który opracowuje najlepszą dla siebie strategię uczenia się. Zanim upłynęły 72 godziny, w czasie których algorytm grał sam ze sobą, stał się lepszy niż 98 procent wszystkich jego przeciwników rodzaju ludzkiego na całym świecie. W porównaniu do tego stworzenie robota mordercy, który potrafi zidentyfikować i zlikwidować określony cel, jest dziecinnie proste- przecież w funkcję rozpoznawania twarzy wyposażony jest obecnie pierwszy lepszy smartfon!

Drony F-305 wykorzystywane przez francuskie lotnictwo /AFP
Drony F-305 wykorzystywane przez francuskie lotnictwo/AFP

Kończy się nasz czas na działanie

- Sztuczna inteligencja to przyszłość. Ktokolwiek obejmie w tym zakresie wiodąca rolę, będzie władcą świata - tłumaczył niedawno rosyjski prezydent Władimir Putin. - Jeśli drony jednego państwa zostaną zniszczone przez drony innego państwa, jedyną opcją tego pierwszego będzie poddanie się. W Rosji nad tym problemem pracuje co najmniej dziesięć narodowych centrów badawczych. Podczas specjalnego posiedzenia Rady Bezpieczeństwa Organizacji Narodów Zjednoczonych w listopadzie 2017 roku, którego celem była regulacja kwestii wojskowego zastosowania AI, znów - jak w ubiegłych latach - najbardziej odwlekały wprowadzenie zakazów te państwa, które najmocniej inwestują w rozwój robozabójców: oprócz Rosji także Izrael, oraz Stany Zjednoczone. - To fatalna wiadomość, ponieważ za kilka lat będzie za późno na działanie - mówi Stuart Russell.

Materiał pochodzi ze "Świata Wiedzy" 2/2018

Stephen Hawking również jest pełen obaw: - Myślę, że skonstruowanie w pełni funkcjonalnej sztucznej inteligencji może oznaczać koniec rasy ludzkiej. Ale dlaczego maszyna miałaby wykształcić świadomość? I z jakiego powodu byłoby to dla nas groźne?Stuart Russell wyjaśnia: - To proste: każde inteligentne urządzenie - nawet to, które wykonuje tak proste zadania,jak "przynieś kawę" - zrozumie, że wyłączone albo pozbawione energii nie będzie w stanie zrealizować celu. Stąd też za pomocą wszystkich dostępnych jej środków będzie próbowało zapobiec utracie zasilania. Nieuniknione jest więc, że maszyny wykształcą instynkt samozachowawczy, tak samo jak człowiek. Dlaczego więc nie zamontujemy w nich po prostu "guzików"awaryjnych? Wtedy hakerzy mogliby je z łatwością wyłączyć. Roboty stałyby się bezużyteczne.

"Sztuczna inteligencja nie potrzebuje dronów, aby zniszczyć ludzkość"

- Sztuczna inteligencja nie potrzebuje ani dronów, ani kontroli przez internet, by zniszczyć ludzkość - wyjaśnia prowadzący badania nad AI Eliezer Yudkowsky. - Problem tkwi nie w tym, że posiadać będzie broń, ale że będzie od nas mądrzejsza. Do unicestwienia naszej cywilizacji wystarczyłoby zaledwie kilka zmanipulowanych bakterii. Sytuacja, w jakiejobecnie znajduje się ludzkość, w świecie nauki znana jest jako "problem goryli" (ang. gorilla problem): około dziesięć milionów lat temu ci przodkowie małp człekokształtnych dopuścili do tego, aby oddzielił się gatunek, który fizycznie był wprawdzie słabszy, ale intelektualnie zdecydowanie ich przewyższał. Dzisiaj egzystencja goryli zależy od dobrej woli właśnie tego gatunku. Niebawem może spotkać nas taki sam los: jeśli złożona sztuczna inteligencja nie zostanie wyposażona w bariery, których w żadnym wypadku nie da się pokonać,wtedy, niczym myślący z prędkością światła, wszystkowiedzący haker, będzie próbowała wyzwolić się spod kontroli swoich reagujących w zwolnionym tempie stwórców.

- Sztuczna inteligencja już w pierwszym podejściu musi być perfekcyjnie zaprogramowana - wyjaśnia Yudkowsky. Bo może się zdarzyć tak, że na restart, aktualizację oprogramowania oraz reinstalację nie będzie czasu. - I nie jestem pewien, czy chciałbym być tym, który ma wcisnąć przycisk "reset" - wyjaśnia autor książek oraz konstruktor rakiet Elon Musk. - Ponieważ to ja byłbym pierwszym, którego maszyna zabije.



Czytaj więcej na http://nt.interia.pl/news-my-kontra-autonomiczna-bron,nId,2523264#utm_source=paste&utm_medium=paste&utm_campaign=chrome


Zakorzeniony w historii Polski i Kresów Wschodnich. Przyjaciel ludzi, zwierząt i przyrody. Wiara i miłość do Boga i Człowieka. Autorytet Jan Paweł II

Nowości od blogera

Komentarze

Pokaż komentarze

Inne tematy w dziale Polityka