Autonomous Weapon Systems, Control and Accountability. See our fresh guide

instytutsprawobywatelskich.pl 1 month ago

Nie wiesz, jak działają autonomiczne systemy broni (AWS)? One są już wokół nas – i rozwijają się szybciej, niż myślisz. Ten przewodnik odsłania kulisy działania AWS, technologii, która rewolucjonizuje pole walki, często poza kontrolą społeczeństwa i bez jakiejkolwiek regulacji. Przeczytaj, a dowiesz się, jak autonomiczne systemy broni są testowane i wdrażane – bez naszej wiedzy i zgody.

W poradniku znajdziesz najważniejsze informacje o AWS – ich roli w polityce, wojskowości i prawie międzynarodowym. To technologia, która nie tylko zmienia sposób prowadzenia wojen, ale także stawia przed nami fundamentalne pytania o przyszłość etyki i kontroli nad sztuczną inteligencją w działaniach zbrojnych.

Prezentujemy fragment poradnika. Zachęcamy do lektury całej publikacji.

Jak wielkie korporacje technologiczne wspierają rozwój i zastosowanie autonomicznych systemów broni (AWS)?

Duże korporacje technologiczne, takie jak Microsoft, Google i Amazon, odgrywają znaczącą rolę w rozwoju i wsparciu autonomicznych systemów broni (AWS) poprzez dostarczanie technologii chmurowych i narzędzi sztucznej inteligencji. Przykładem może być współpraca Microsoftu z Siłami Obronnymi Izraela (IDF), w ramach której platforma chmurowa Azure była wykorzystywana do obsługi działań wojskowych, analiz wywiadowczych i zarządzania „bankami celów”. Microsoft dostarczył IDF także zaawansowane narzędzia sztucznej inteligencji w celu wsparcia przetwarzania języka i danych wizualnych.

W latach 2023-2024 Microsoft zapewnił tysiące godzin wsparcia technicznego dla izraelskiego wojska, generując miliony dolarów przychodu.

Podobnie Google uczestniczył w projekcie Nimbus, wartym 1,2 mld dolarów, dostarczając chmurowe usługi obliczeniowe dla izraelskich instytucji rządowych, w tym IDF.

Z ujawnionej dokumentacji wynika, iż Google pracował bezpośrednio z IDF, dostarczając technologie AI do celów wojskowych, mimo publicznego zaprzeczania współpracy w tym obszarze.

W przypadku Google, część pracowników wyraziła sprzeciw wobec współpracy z izraelskim wojskiem, obawiając się, iż ich praca przyczynia się do naruszeń praw człowieka. Google zwolniło 28 pracowników, którzy zorganizowali protesty w biurach firmy w Nowym Jorku i Kalifornii. Protesty zostały stłumione przez firmę, co uwypukla problem tłumienia krytyki wewnętrznej wobec współpracy z wojskiem.

Obie firmy dostarczały technologie umożliwiające zwiększenie precyzji operacji wojskowych, przyspieszenie analizy danych i rozwój narzędzi do namierzania celów, co budzi obawy dotyczące odpowiedzialności, zgodności z prawem międzynarodowym oraz moralnej dopuszczalności stosowania takich rozwiązań. Wiele technologii wojskowych jest rozwijanych w tajemnicy, co uniemożliwia publiczną kontrolę nad ich zastosowaniem i zgodnością z normami prawnymi.

Technologie chmurowe i AI, pierwotnie rozwijane do celów komercyjnych, w tej chwili są wykorzystywane w działaniach wojskowych, co budzi wątpliwości, czy będą w stanie rozróżnić infrastrukturę cywilną od wojskowej.

Działamy bez cenzury. Nie puszczamy reklam, nie pobieramy opłat za teksty. Potrzebujemy Twojego wsparcia. Dorzuć się do mediów obywatelskich.

Wzmocnij kampanie obywatelskie Instytutu Spraw Obywatelskich

Przekaż swój 1,5% podatku:

Wpisz nr KRS 0000191928

lub skorzystaj z naszego darmowego programu do rozliczeń PIT.

Jak autonomiczne systemy broni (AWS) mogą wpływać nie tylko na pole walki, ale także na życie codzienne?

Autonomiczne systemy broni (AWS) mogą znacząco wpływać na życie społeczne poprzez wykorzystanie zaawansowanych technologii, takich jak rozpoznawanie twarzy, algorytmiczne namierzanie celów oraz analiza danych w celu identyfikacji zagrożeń.

Rozpoznawanie twarzy i targetowanie osób

AWS wykorzystują kamery i czujniki do śledzenia oraz identyfikacji obiektów i osób. Systemy te analizują dane o cechach fizycznych, takich jak gesty, kształt twarzy czy wzorce ruchu, co może prowadzić do błędnej klasyfikacji i naruszeń prywatności. Technologie te mogą być używane do masowego monitorowania przestrzeni publicznej, co budzi obawy związane z inwigilacją i dyskryminacją.

Zapraszamy na staże, praktyki i wolontariat!

Dołącz do nas!

Zagrożenie dehumanizacją

Decyzje podejmowane przez algorytmy AWS, a nie ludzkich operatorów, mogą prowadzić do traktowania ludzi wyłącznie jako „danych” lub „celów”. Taka redukcja człowieczeństwa zagraża wartościom społecznym i etycznym, a także może prowadzić do błędów w ocenie sytuacji w krytycznych momentach.

Potencjalna dyskryminacja i uprzedzenia
Systemy AWS mogą działać na podstawie niereprezentatywnych lub stronniczych danych, co prowadzi do dyskryminacji pewnych grup społecznych.

Ryzyko naruszeń praw człowieka

Automatyzacja decyzji związana z wprowadzaniem technologii AWS niesie ryzyko nieuzasadnionych ataków, skutkujących łamaniem praw człowieka.

Problemy te mogą pojawić się również w kontekście policyjnym lub podczas tłumienia protestów, gdzie AWS mogą być używane do działań represyjnych.

Publikacja została zaprojektowana i złożona przez studio graficzne przedsiębiorstwa społecznego ESG PRO. Odezwij się do o nas, gdy będziesz potrzebować usług DTP.

Publikacja została sfinansowana w ramach XV edycji grantu Stop Killer Robots.

Marta Stępniak, Paweł Marczak, Przyszłość teatru wojny: autonomiczne systemy broni, kontrola i odpowiedzialność, Instytut Spraw Obywatelskich, 2025

Read Entire Article