Jak Izrael szkoli AI na Palestyńczykach
Summary
TLDRThe video script discusses Israel's use of artificial intelligence in its conflict with Palestinians, highlighting the role of BigTech companies like Google, Meta, Facebook, and Amazon in enabling such technologies. It outlines how AI is integrated into military operations, including autonomous weapon systems, biometric surveillance, and predictive analytics, which have been tested in the Gaza Strip. The script raises ethical concerns about the use of AI in warfare, the potential for civilian casualties, and the broader implications of deploying predictive systems in conflict zones.
Takeaways
- 😨 Israel uses artificial intelligence tools in its conflict with Palestinians, highlighting a significant role of technology in modern warfare.
- 🔎 AI is employed for data analysis, which is critical for better understanding and predicting outcomes in conflict situations.
- 🤖 Autonomous and semi-autonomous weapon systems, such as armed drones and robotic platforms, are tested and utilized in the conflict zones.
- 👁️ Facial recognition and biometric data systems are used to identify and track individuals, raising concerns about privacy and consent.
- 🎯 Predictive systems are employed to designate targets for bombings, which are based on data analysis and not direct observation.
- 🚨 The UN criticizes the use of automated systems in warfare due to the lack of human oversight and potential for error.
- 🏛 Legal challenges arise as Israel claims its actions are in accordance with the law, despite international criticism.
- 🔢 Predictive systems may be trained on biased data, leading to potential misidentification and targeting of innocent individuals.
- 🏢 BigTech companies like Google, Meta, Facebook, and Amazon indirectly support these military technologies by providing cloud services and metadata transmission.
- 🌐 The conflict serves as a testing ground for technologies that are then marketed globally, showing the interconnectedness of warfare and the tech industry.
- ⚠️ The script raises ethical questions about the use of AI in warfare, including the risk of mistakes and the dehumanization of the decision-making process.
Q & A
What is the main topic of the video script?
-The main topic of the video script is the use of artificial intelligence by Israel in its conflict with Palestinians, and the involvement of BigTech companies like Google, Meta, Facebook, and Amazon in this context.
Why is the Israel-Palestine conflict receiving significant media attention?
-The Israel-Palestine conflict receives significant media attention because it is one of the most emotionally charged conflicts on Earth, and it involves two organizations or states with contrasting levels of technological advancement.
How does Israel use artificial intelligence in warfare?
-Israel uses artificial intelligence in warfare for data analysis, including biometric data, to make more informed decisions and potentially reduce accidental casualties. It is also used in autonomous or semi-autonomous weapon systems, facial recognition systems, and predictive tools for identifying targets.
What are the three main groups of devices mentioned in the script that are used in the conflict?
-The three main groups of devices are autonomous or semi-autonomous weapon systems, systems for recognizing faces or other biometric data, and systems for indicating targets for bombing based on data analysis.
What is the potential issue with using AI in warfare?
-The potential issue with using AI in warfare is the risk of mistakes due to the algorithms predicting who is a target based on data analysis, which may not always be accurate or complete, leading to the possibility of civilian casualties.
How does the script describe the role of BigTech companies in the conflict?
-The script describes the role of BigTech companies as indirectly profiting from the conflict by providing services such as cloud computing and metadata transmission, which are essential for the operation of the AI systems used in warfare.
What is the 'Lawenda' system mentioned in the script?
-The 'Lawenda' system is an automated system mentioned in the script that identified 37,000 Palestinians as potential targets during the first two months of the war, with 15,000 of those individuals being killed.
What is the criticism from the United Nations regarding the use of automated systems in warfare?
-The United Nations criticizes the use of automated systems in warfare due to the lack of human control in the decision-making process, which can lead to a higher risk of civilian casualties.
How are the predictive systems trained, and what is the potential issue with this?
-The predictive systems are trained on datasets, which may include biometric data of individuals. The potential issue is that these systems may be trained on biased or incomplete data, leading to inaccurate predictions and possible civilian casualties.
What is the significance of the 'Evangelia' system mentioned in the script?
-The 'Evangelia' system is an automated system designed to locate wanted individuals when they are at home with their families, raising ethical questions about the use of such technology in warfare.
How does the script address the ethical implications of using AI in warfare?
-The script addresses the ethical implications by discussing the potential for mistakes due to algorithmic predictions, the lack of human oversight in decision-making, and the use of potentially biased or incomplete data for training AI systems.
Outlines
🤖 AI in Warfare: Israel's Use of Technology Against Palestinians
The script discusses how Israel employs artificial intelligence (AI) in its conflict with Palestinians, and the involvement of BigTech companies like Google, Meta, Facebook, and Amazon. It highlights the Israeli-Palestinian conflict as a widely covered and emotionally charged issue. The video aims to explain the role of AI in warfare, particularly in data analysis and automation, without taking sides or simplifying the conflict's complexity. It emphasizes the importance of information and analysis in warfare and the ethical implications of AI-driven systems that could potentially automate killing decisions.
🔎 Advanced Surveillance and Biometric Systems in Conflict Zones
This paragraph delves into the specifics of AI applications in the Israeli-Palestinian conflict, focusing on three main groups of AI systems: autonomous and semi-autonomous weaponry, biometric recognition systems, and target designation systems. It mentions the use of drones equipped with weapons, facial recognition technology, and predictive systems that identify potential targets based on data analysis. The paragraph also raises concerns about the lack of human oversight in these systems and the potential for high error rates, leading to the killing of innocent civilians. It references reports from The New York Times and The Guardian about the use of such systems and the ethical and legal criticisms from the United Nations.
📊 The Ethical and Practical Challenges of AI in Military Applications
The final paragraph examines the ethical dilemmas and practical challenges associated with using AI in military operations. It discusses the potential for AI systems to be trained on biased data, leading to discrimination and mistakes in identifying targets. The script also questions the accuracy of facial recognition and other biometric systems, especially under challenging conditions. It highlights the potential for civilian casualties due to the destruction of buildings and the use of scoring systems that increase the likelihood of being targeted based on certain criteria. The paragraph concludes by pointing out the paradox of AI systems being tested in conflict zones for their effectiveness before being marketed globally, and the indirect profit made by BigTech companies through their services to these military systems.
Mindmap
Keywords
💡Artificial Intelligence
💡Autonomous Systems
💡Biometric Systems
💡Data Analysis
💡Drones
💡Predictive Tools
💡Surveillance Systems
💡BigTech
💡Ethical Implications
💡Human Error
💡Data Discrimination
Highlights
Israel utilizes artificial intelligence tools in its conflict with Palestinians, including autonomous and semi-autonomous weapon systems.
BigTech companies like Google, Meta, Facebook, and Amazon indirectly profit from such conflicts by providing cloud services and metadata transmission.
The Israeli-Palestinian conflict is a highly emotional and widely covered issue, drawing global media attention.
Israel is one of the most technologically advanced countries in the world, especially in military technology and AI.
AI plays a key role in data analysis, helping to predict and identify targets in conflicts more effectively.
Autonomous weapon systems like drones equipped with guns, machine guns, and missiles are used for killing people.
Surveillance systems, including biometric recognition, are used to catalog and track Palestinians without their consent.
Predictive systems analyze data to determine who might be a threat, potentially leading to the killing of innocent people based on algorithmic predictions.
The Gaza Strip has been used for years to test these technologies in conflicts with Palestinians.
Systems like 'Evangelia' and 'Lawenda' are designed to identify and target individuals based on biometric data and behavior patterns.
The 'Where is Daddy?' system locates wanted individuals within their homes, potentially endangering family members.
International journalistic investigations revealed that AI systems identified 37,000 Palestinians as potential targets, with 15,000 killed in the first two months of conflict.
The UN criticizes the use of automatic systems in warfare, but such criticism lacks legal power to enforce change.
The accuracy of these systems in identifying affiliations with terrorist organizations like Hamas is questionable, with an error rate of around 10%.
The training data for these AI systems may include biased or discriminatory information, leading to potential misidentification of innocent individuals.
The same AI algorithms can be used for noble causes like preventing child suicide, but when trained on different data, they can facilitate the automation of killing.
The conflict serves as a testing ground for technologies that are then marketed and sold globally, with the world watching their effectiveness.
The use of AI in warfare raises ethical questions about the data used for training algorithms and the potential for mistakes with serious consequences.
Transcripts
Do czego Izrael wykorzystuje
narzędzia sztucznej inteligencji
podczas prowadzenia wojny
przeciwko Palestyńczykom.
I co mają z tym wspólnego takie
BigTechy, jak Google, Meta,
Facebook czy Amazon?
W tym filmie to wyjaśniam.
Konflikt izraelsko-palestyński jest
jednym z najbardziej, najszerzej
komentowanych i wywołujących
największe emocje konfliktów, które
w tym momencie dzieją się na Ziemi.
I choć jest wiele konfliktów,
takich, w których ginie więcej
ludzi, to jednak oczy mediów i nas,
odbiorców są skierowane na to
właśnie, co dzieje się w Izraelu i w
Palestynie. Dlaczego tak się dzieje?
Tych powodów jest pewnie bardzo
wiele, ale moim zdaniem jednym
z ważniejszych jest to, że
z tą pewnością walczą ze sobą dwie
organizacje.
Dwa państwa, które pod względem
technologii są na przeciwnych
biegunach. Izrael to pod względem
wojskowym czy wojskowych
technologii jedno z najbardziej
zaawansowanych państw świata.
A technologią, którą wykorzystuje
w tej wojnie jest między innymi
sztuczna inteligencja.
Do czego konkretnie ona tam jest
wykorzystywana?
Zanim zacznę, pozwólcie na krótkie
wyjaśnienie. W tym filmie nie
usłyszycie historii izraelsko
palestyńskich konfliktów.
Nie usłyszycie też recenzji,
kto jest tym dobrym, a kto jest tym
złym. Zabijanie zawsze jest
złe, a gdy obydwie strony głęboko
wierzą w to, że są ofiarami
i jedynie się bronią, sprawy stają
się jeszcze bardziej skomplikowane.
W tym filmie opowiem o jednej
technologii, którą Izrael
wykorzystuje w konfliktach od
dawna.
I od razu powiem, że nie tylko
Izrael. A patrząc szerzej analizę
danych wykorzystują wszystkie
armie świata od zawsze.
Im ktoś lepiej potrafi dane
pozyskiwać, analizować
i wyciągać z tych analiz
wnioski, tym lepiej.
Na polu walki czy czymkolwiek
to pole walki jest, tym
lepiej sobie radzi.
Sztuczna inteligencja nie jest nowym
graczem. Jest kontynuacją w pewnym
sensie tego, co od zawsze
w wojnach grało kluczową rolę.
Dobre informacje, dobra analiza
danych to nie tylko oszczędności
w prowadzeniu wojny.
To nie tylko dotkliwsze ciosy
zadane przeciwnikowi, ale
także mniej przypadkowych
ofiar. Warto o tym
nie zapominać.
AI jest bardzo zaawansowanym
systemem analizy danych i
to danych każdego rodzaju, z
danymi biometrycznymi włącznie.
Kojarzy się i w dużej mierze
jest technologią umożliwiającą
automatyzowanie wojny.
A może powinienem powiedzieć
automatyzować, zabijania?
Ale kojarzy się też z robotami
czy systemami mogącymi się
zbuntować?
Perspektywa drona czy wieżyczki
strzelniczej, która jest wyposażona
w zestaw czujników i karabin
mogący zabijać, to dla wielu
jest obraz jak z dystopijinych
filmów pokazujących przyszłość,
której się przecież boimy.
Systemy nadzoru, biometrycznego,
systemy czy narzędzia predykcyjne,
które nie tyle wiedzą, bo widziały,
ile przeczuwają, bo wyznaczyły
sobie statystycznie, kto jest
winny i zasługuje na śmierć, a kto
nie. To wszystko.
Ja to rozumiem wzbudza przerażenie.
Strefa Gazy, konflikty z
Palestyńczykami od wielu lat
były wykorzystywane
do testowania tych technologii.
Jakich konkretnie?
Generalnie mamy do czynienia z
trzema grupami urządzeń, jeśli
mogę tak je nazwać.
Pierwsza to autonomiczne albo
pół-autonomiczne systemy uzbrojenia.
To drony wyposażone w karabiny
maszynowe czy rakiety, które służą
do zabijania ludzi.
Sporo tu jest informacji, które
bardzo trudno jest sprawdzić,
zweryfikować, dlatego o wielu z nich
będę mówił bardzo
ogólnie. Ten rodzaj oprogramowania
czujników,
w które są wyposażony drony, czasami
są także w niego wyposażone
chociażby wieżyczki strzelnicze
umieszczone w miejscach, które mają
być zgodnie z taktyką Izraela
strefami śmierci albo
na wieżyczka, które są umieszczane
na granicy ze Strefą Gazy.
W ten rodzaj uzbrojenia wchodzą
także roboty uzbrojone
roboty, np.
wybudowany już kilka lat temu
robot czy bardziej kołowa
platforma Jaguar.
Inna grupa systemów spięta
z tymi pierwszymi nie strzela, ale
rozpoznaje cele.
To systemy rozpoznawania twarzy
czy innych danych biometrycznych.
Kilka tygodni temu pisał o tym
The New York Times.
Pisał, że taki system
od dawna był testowany.
Czy takie systemy były udoskonalane
i trenowane na Zachodnim Brzegu
Jordanu i we Wschodniej Jerozolimie?
System kataloguje twarze
Palestyńczyków i chyba nie muszę
wspominać, że nikt tu nikogo o zgodę
nie pyta. Dzięki tym rozpoznają
dużo lepiej. Skuteczniej działają
systemy, o których już wspomniałem,
czyli te służące do zabijania
na podstawie zdjęcia twarzy
czy zdjęcia rozpoznania całej
sylwetki. Trzecia grupa systemów
służy do wskazywania celów,
które następnie mają być
bombardowane.
Tu co prawda chodzi bardziej o.
Rynki czy ogólnie infrastrukturę.
Ale te cele są generowane
na podstawie np.
informacji o tym, kto wchodzi
do danego budynku.
A tu znowu wracamy do rozpoznawania
twarzy czy całej sylwetki,
rejestrowania, analizowania danych
biometrycznych.
Jeden z takich automat
zautomatyzowanych systemów
I to mi się nie mieści.
Szczerze w głowie nosi nazwę
"Ewangelia", inny
"Lawenda".
Izraelczycy mają także system
służący namierzaniu
poszukiwanych, gdy ci są
w domu razem ze swoimi rodzinami,
to ten system został nazwany.
Czy jest nazywany "Where is Daddy?",
czyli "Gdzie jest tatuś?".
A wracając jeszcze do systemu
Lavender/Lawenda.
Międzynarodowe śledztwo
dziennikarskie ujawniło, że system
ten w pierwszych dwóch miesiącach
wojny, czyli w październiku i
listopadzie zeszłego roku,
zidentyfikował 37
tysięcy Palestyńczyków
jako potencjalne cele.
W tym samym czasie z tej liczby
zabito 15 tysięcy osób.
Pisał o tym brytyjski
The Guardian, ale też hiszpański
dziennik El Pais.
Dodatkowo okazało się, że
wiele z tych systemów jest
pozostawionych bez należytej
kontroli, a czynnik ludzki
w tym procesie, w tym ciągu
decyzyjnym był zminimalizowany,
a w niektórych wypadkach mogło go
nie być wcale.
ONZ krytykuje wykorzystanie
automatycznych systemów,
ale ta krytyka nie ma żadnej mocy
prawnej. Izrael twierdzi, że
robi to zgodnie z prawem.
Problemem nie jest analiza danych,
nawet danych wywiadowczych.
Problemem jest predykcja - te
systemy nie zabijają tych,
którzy np.
są bojownikami Hamasu,
ale tych, których algorytm za
takich uzna na podstawie
predykcji.
W wielu miejscach na świecie
wykorzystywanie takich systemów
jest zakazane, choć oczywiście
zawsze można powiedzieć, że
nigdy nie mamy pewności, czy
służby danych krajów takich
systemów nie wykorzystują niezgodnie
z prawem. W wielu przypadkach
najlepsze tego typu systemy
inwigiluje analizujące
biometria i prowadzące predykcje
są produkowane przez firmy
izraelskie.
Na chłodno, tak bardzo na chłodno,
tak na chłodno, że aż mi zimno na
plecach. Wiecie już, na czym
się tego swojego fachu te
firmy uczą?
Straszne? Tak, bo system tego
typu musi być.
Czy systemy tego typu muszą być
karmione danymi, które często
są danymi dyskryminującymi, a
to, że wśród bojowników często
zdarzają się faceci z czarną brodą,
nie znaczy, że każdy gość z czarną
brodą jest bojownikiem.
Oczywiście temat spłycam, ale
nie aż tak bardzo, jak mogłoby się
wydawać. Żeby sprawę skomplikować
dodam jeszcze, że systemy
predykcyjne, choć oczywiście
trenowane na innych zbiorach danych,
mogą być bardzo pomocne i mogą
ratować życie np.
wskazywać, które dziecko może
popełnić samobójstwo po
to, by zapobiec tragedii, po to, by
mu pomóc. I nie, nie uważam,
że armia albo policja
może, czy powinna takich systemów
używać, bo ryzyko pomyłki
podczas ich stosowania jest zbyt
wysokie. Próbuję tylko
opisać kolejny
przykład.
Szczególnie tych przykładów jest
dużo w tematach AI-owych,
gdzie ten sam algorytm można
wykorzystywać w
celach bardzo chwalebnych,
jak chociażby ratowanie dzieci
w kryzysie jakimś
dzieci, które chcą popełnić
samobójstwo.
Ale ten sam algorytm trenowany na
nieco innych danych może
po prostu służyć do zautomatyzowania
procesu zabijania.
Innym problemem zastosowaniem AI
na wojnie jest to,
na jakich danych rzeczywiście te
algorytmy są szkolone.
Bojownicy Hamasu czy innych
organizacji terrorystycznych nie
noszą plakietek na ramieniu
i są w dużym stopniu nieuchwytni, a
to znaczy, że systemy te są szkolone
na osobach, co do których
przynależności nie ma pewności.
Dziennikarze dotarli do informacji,
że systemy biometryczne były
trenowane na zdjęciach palestyńskich
urzędników, policjantów czy
nauczycieli.
Z danych, na które powołują się
media i mam cały czas na myśli to
śledztwo dziennikarskie, wynika,
że błąd we wskazaniu,
identyfikowaniu.
Jak to się pięknie mówi, powiązań
danej osoby z Hamasem.
Jeśli chodzi o system Lavender
wynosi około 10%, czyli
na każdych stu zabitych przynajmniej
dziesięciu to osoby niewinne.
Dużo to czy mało?
Jedni powiedzą, że dużo, a inni, że
gdyby nie te systemy, pewnie
zabitych niewinnych byłoby znacznie
więcej. Jakie dane wskazują
na powiązania z terrorystami?
Izrael nie ujawnia oczywiście pełnej
listy, ale wiadomo, że
wskazywać na to może np.
częsta zmiana numeru telefonu, z
którego ktoś dzwoni.
Wiadomo też, że wśród bojowników
na wyższych stanowiskach nie ma
kobiet, więc system generalnie
wyszukuje mężczyzn.
Mówiąc o błędach, mówimy w zasadzie
o kilku rodzajach błędów.
Jednym może.
Czy jeden może wynikać z predykcji
tego, jak system działa,
jak się uczy, a szczególnie
gdy jest karmiony
niepełnymi albo nie prawidłowymi
danymi, ale gdy już takie powiązanie
powstaje.
Drugi błąd może wynikać ze
skuteczności czy wrażliwości
systemów rozpoznawania twarzy.
Także mam tutaj na myśli
niedoskonałości systemów optycznych
czy sytuację, w której patrzy
przygląda się komuś przez
chmurę dymu albo
dron z wysokości
przez przez taką chmurę zawieszoną
na niebie?
Tych niewinnych, tych nijak nie
powiązanych z Hamasem zabitych
może być znacznie, znacznie więcej
niż średnio 10 osób na 100.
Jest jeszcze coś.
Niektóre ze wspomnianych przeze mnie
systemów są zaprojektowane tak, by
niszczyć budynki w nocy, gdy
namierzony wcześniej cel jest w
środku. Ale tam mogą
być też inni ludzie rodzina
albo sąsiedzi.
A zatem gdzie powinna być ustawiona
poprzeczka strat?
Hiszpański dziennik, o którym, jak
to już się powołałem, El Pais pisał,
że akceptowalne jest,
aby w jednym bombardowaniu
zginęło stu cywilów.
Jeśli celem jest wysoki rangą
urzędnik Hamasu albo Islamskiego
Dżihadu. Z danych tego śledztwa
wynika także, że każda z
inwigilowany ponad 2 mln
osób Palestyńczyków ma podawaną
punktację od 1 do 100.
Im więcej punktów, tym większa
szansa, że zostaniesz zabity.
Im bliżej stu punktów,
tym większa szansa, że zostaniesz
zabity z rodziną czy sąsiadami.
Jak wspomniałem, technologie, by
móc konkurować na rynku, muszą
wykazać się skutecznością.
Świat patrzy, jak działają,
zanim zdecyduje się kupić.
Oczywiście, gdyby nie usługi,
jakie Izraelowi świadczą BigTechy,
takie jak Google, Facebook, Meta
czy Amazon.
Mam na myśli tutaj usługi np.
chmurowe czy
przekazywanie metadanych.
Nic by to nic, nic by nie działało.
Te systemy po prostu by nie
działały. Pośrednio na takiej wojnie
zarabiają więc także największe
korporacje cyfrowe na Ziemi.
I tak to się kręci.
Niezależnie od tego, co myślimy o
konflikcie izraelsko-palestyńskim.
Jak każdy konflikt jest areną
do testowania technologii.
I tylko ludzi szkoda.
Dziękuję bardzo za uwagę.
Посмотреть больше похожих видео
How AI tells Israel who to bomb
How AI defeats humans on the battlefield | BBC News
History of AI | VOANews
Palmer Luckey Wants to Be Silicon Valley's War King | The Circuit
'Where's Daddy' Israel's AI Death Machine REVEALED
Will Artificial Intelligence Take Over the World? | Between the Lines with Palki Sharma
5.0 / 5 (0 votes)