Jak Izrael szkoli AI na Palestyńczykach

Nauka. To Lubię
25 Jul 202412:28

Summary

TLDRThe video script discusses Israel's use of artificial intelligence in its conflict with Palestinians, highlighting the role of BigTech companies like Google, Meta, Facebook, and Amazon in enabling such technologies. It outlines how AI is integrated into military operations, including autonomous weapon systems, biometric surveillance, and predictive analytics, which have been tested in the Gaza Strip. The script raises ethical concerns about the use of AI in warfare, the potential for civilian casualties, and the broader implications of deploying predictive systems in conflict zones.

Takeaways

  • 😨 Israel uses artificial intelligence tools in its conflict with Palestinians, highlighting a significant role of technology in modern warfare.
  • 🔎 AI is employed for data analysis, which is critical for better understanding and predicting outcomes in conflict situations.
  • 🤖 Autonomous and semi-autonomous weapon systems, such as armed drones and robotic platforms, are tested and utilized in the conflict zones.
  • 👁️ Facial recognition and biometric data systems are used to identify and track individuals, raising concerns about privacy and consent.
  • 🎯 Predictive systems are employed to designate targets for bombings, which are based on data analysis and not direct observation.
  • 🚨 The UN criticizes the use of automated systems in warfare due to the lack of human oversight and potential for error.
  • 🏛 Legal challenges arise as Israel claims its actions are in accordance with the law, despite international criticism.
  • 🔢 Predictive systems may be trained on biased data, leading to potential misidentification and targeting of innocent individuals.
  • 🏢 BigTech companies like Google, Meta, Facebook, and Amazon indirectly support these military technologies by providing cloud services and metadata transmission.
  • 🌐 The conflict serves as a testing ground for technologies that are then marketed globally, showing the interconnectedness of warfare and the tech industry.
  • ⚠️ The script raises ethical questions about the use of AI in warfare, including the risk of mistakes and the dehumanization of the decision-making process.

Q & A

  • What is the main topic of the video script?

    -The main topic of the video script is the use of artificial intelligence by Israel in its conflict with Palestinians, and the involvement of BigTech companies like Google, Meta, Facebook, and Amazon in this context.

  • Why is the Israel-Palestine conflict receiving significant media attention?

    -The Israel-Palestine conflict receives significant media attention because it is one of the most emotionally charged conflicts on Earth, and it involves two organizations or states with contrasting levels of technological advancement.

  • How does Israel use artificial intelligence in warfare?

    -Israel uses artificial intelligence in warfare for data analysis, including biometric data, to make more informed decisions and potentially reduce accidental casualties. It is also used in autonomous or semi-autonomous weapon systems, facial recognition systems, and predictive tools for identifying targets.

  • What are the three main groups of devices mentioned in the script that are used in the conflict?

    -The three main groups of devices are autonomous or semi-autonomous weapon systems, systems for recognizing faces or other biometric data, and systems for indicating targets for bombing based on data analysis.

  • What is the potential issue with using AI in warfare?

    -The potential issue with using AI in warfare is the risk of mistakes due to the algorithms predicting who is a target based on data analysis, which may not always be accurate or complete, leading to the possibility of civilian casualties.

  • How does the script describe the role of BigTech companies in the conflict?

    -The script describes the role of BigTech companies as indirectly profiting from the conflict by providing services such as cloud computing and metadata transmission, which are essential for the operation of the AI systems used in warfare.

  • What is the 'Lawenda' system mentioned in the script?

    -The 'Lawenda' system is an automated system mentioned in the script that identified 37,000 Palestinians as potential targets during the first two months of the war, with 15,000 of those individuals being killed.

  • What is the criticism from the United Nations regarding the use of automated systems in warfare?

    -The United Nations criticizes the use of automated systems in warfare due to the lack of human control in the decision-making process, which can lead to a higher risk of civilian casualties.

  • How are the predictive systems trained, and what is the potential issue with this?

    -The predictive systems are trained on datasets, which may include biometric data of individuals. The potential issue is that these systems may be trained on biased or incomplete data, leading to inaccurate predictions and possible civilian casualties.

  • What is the significance of the 'Evangelia' system mentioned in the script?

    -The 'Evangelia' system is an automated system designed to locate wanted individuals when they are at home with their families, raising ethical questions about the use of such technology in warfare.

  • How does the script address the ethical implications of using AI in warfare?

    -The script addresses the ethical implications by discussing the potential for mistakes due to algorithmic predictions, the lack of human oversight in decision-making, and the use of potentially biased or incomplete data for training AI systems.

Outlines

00:00

🤖 AI in Warfare: Israel's Use of Technology Against Palestinians

The script discusses how Israel employs artificial intelligence (AI) in its conflict with Palestinians, and the involvement of BigTech companies like Google, Meta, Facebook, and Amazon. It highlights the Israeli-Palestinian conflict as a widely covered and emotionally charged issue. The video aims to explain the role of AI in warfare, particularly in data analysis and automation, without taking sides or simplifying the conflict's complexity. It emphasizes the importance of information and analysis in warfare and the ethical implications of AI-driven systems that could potentially automate killing decisions.

05:02

🔎 Advanced Surveillance and Biometric Systems in Conflict Zones

This paragraph delves into the specifics of AI applications in the Israeli-Palestinian conflict, focusing on three main groups of AI systems: autonomous and semi-autonomous weaponry, biometric recognition systems, and target designation systems. It mentions the use of drones equipped with weapons, facial recognition technology, and predictive systems that identify potential targets based on data analysis. The paragraph also raises concerns about the lack of human oversight in these systems and the potential for high error rates, leading to the killing of innocent civilians. It references reports from The New York Times and The Guardian about the use of such systems and the ethical and legal criticisms from the United Nations.

10:02

📊 The Ethical and Practical Challenges of AI in Military Applications

The final paragraph examines the ethical dilemmas and practical challenges associated with using AI in military operations. It discusses the potential for AI systems to be trained on biased data, leading to discrimination and mistakes in identifying targets. The script also questions the accuracy of facial recognition and other biometric systems, especially under challenging conditions. It highlights the potential for civilian casualties due to the destruction of buildings and the use of scoring systems that increase the likelihood of being targeted based on certain criteria. The paragraph concludes by pointing out the paradox of AI systems being tested in conflict zones for their effectiveness before being marketed globally, and the indirect profit made by BigTech companies through their services to these military systems.

Mindmap

Keywords

💡Artificial Intelligence

Artificial Intelligence (AI) refers to the simulation of human intelligence in machines that are programmed to think like humans and mimic their actions. In the context of the video, AI is highlighted as a key technology utilized by Israel in warfare, particularly for data analysis and automation of military operations. The script mentions AI's role in enhancing the efficiency of warfare through systems that can predict and identify targets, thus reducing collateral damage and improving the precision of military strikes.

💡Autonomous Systems

Autonomous systems are those that operate without human intervention. The video script discusses the use of autonomous or semi-autonomous weapon systems such as drones equipped with machine guns or missiles for lethal operations. These systems are significant in the video's theme as they represent the application of AI in modern warfare, raising ethical and strategic questions about the future of conflict.

💡Biometric Systems

Biometric systems are technologies that identify individuals based on unique biological characteristics such as facial recognition. The script describes how these systems are used to catalog and identify Palestinians, without their consent, to improve the effectiveness of military operations. This concept is central to the video's narrative as it illustrates the invasive and controversial use of technology in conflict zones.

💡Data Analysis

Data analysis involves inspecting, cleaning, transforming, and modeling data with the goal of discovering useful information, suggesting conclusions, and supporting decision-making. In the video, the emphasis is on how AI systems analyze various types of data, including biometric data, to make informed decisions in warfare. This process is crucial for identifying targets and predicting enemy actions, thus shaping the strategic approach of military engagements.

💡Drones

Drones, or unmanned aerial vehicles (UAVs), are aircraft without a human pilot aboard. The script specifically mentions armed drones as part of Israel's military arsenal, equipped with weapons for combat operations. These drones exemplify the video's focus on the integration of AI and technology in warfare, automating the process of locating and neutralizing targets.

💡Predictive Tools

Predictive tools use data, statistical algorithms, and machine learning techniques to identify the likelihood of future events or behavior. The video describes how such tools are employed to predict which individuals may be involved with Hamas or other organizations, thereby determining potential targets for military action. This concept is integral to the video's exploration of AI's role in preemptive military strategies.

💡Surveillance Systems

Surveillance systems are used to monitor spaces, activities, or individuals for various purposes, including security. The script refers to surveillance systems that are equipped with sensors and weapons, which can be used to eliminate targets identified by AI. These systems are a key element in the video's discussion of the automated and remote nature of modern warfare.

💡BigTech

BigTech refers to the largest technology companies, such as Google, Meta (Facebook), and Amazon, known for their significant market power and influence. The video script implicates these companies as they provide services like cloud computing and metadata transmission, which indirectly support the operations of AI-driven military systems. This concept is relevant to the video's broader theme of the intersection between technology, warfare, and the ethical implications of corporate involvement in conflict.

💡Ethical Implications

Ethical implications pertain to the moral consequences and responsibilities associated with the use of certain technologies or actions. The video raises questions about the ethics of using AI in warfare, particularly when it involves the potential for civilian casualties and the automation of life-or-death decisions. This theme is central to the video's message, prompting reflection on the moral boundaries of technological advancement in military applications.

💡Human Error

Human error refers to mistakes made by individuals that can lead to unintended consequences. The script discusses the potential for errors in AI systems, such as misidentification of targets due to flawed algorithms or inaccurate data. This concept is significant in the video's narrative as it highlights the risks and limitations of relying on AI in critical decision-making processes, especially in the context of warfare.

💡Data Discrimination

Data discrimination occurs when algorithms make decisions based on biased or discriminatory data sets, leading to unfair outcomes. The video script touches on this issue, noting that AI systems trained on data that may not accurately represent the population can result in the misidentification of targets, such as confusing a civilian with a combatant. This concept is important in the video's exploration of the potential biases and injustices inherent in AI-driven military technology.

Highlights

Israel utilizes artificial intelligence tools in its conflict with Palestinians, including autonomous and semi-autonomous weapon systems.

BigTech companies like Google, Meta, Facebook, and Amazon indirectly profit from such conflicts by providing cloud services and metadata transmission.

The Israeli-Palestinian conflict is a highly emotional and widely covered issue, drawing global media attention.

Israel is one of the most technologically advanced countries in the world, especially in military technology and AI.

AI plays a key role in data analysis, helping to predict and identify targets in conflicts more effectively.

Autonomous weapon systems like drones equipped with guns, machine guns, and missiles are used for killing people.

Surveillance systems, including biometric recognition, are used to catalog and track Palestinians without their consent.

Predictive systems analyze data to determine who might be a threat, potentially leading to the killing of innocent people based on algorithmic predictions.

The Gaza Strip has been used for years to test these technologies in conflicts with Palestinians.

Systems like 'Evangelia' and 'Lawenda' are designed to identify and target individuals based on biometric data and behavior patterns.

The 'Where is Daddy?' system locates wanted individuals within their homes, potentially endangering family members.

International journalistic investigations revealed that AI systems identified 37,000 Palestinians as potential targets, with 15,000 killed in the first two months of conflict.

The UN criticizes the use of automatic systems in warfare, but such criticism lacks legal power to enforce change.

The accuracy of these systems in identifying affiliations with terrorist organizations like Hamas is questionable, with an error rate of around 10%.

The training data for these AI systems may include biased or discriminatory information, leading to potential misidentification of innocent individuals.

The same AI algorithms can be used for noble causes like preventing child suicide, but when trained on different data, they can facilitate the automation of killing.

The conflict serves as a testing ground for technologies that are then marketed and sold globally, with the world watching their effectiveness.

The use of AI in warfare raises ethical questions about the data used for training algorithms and the potential for mistakes with serious consequences.

Transcripts

play00:00

Do czego Izrael wykorzystuje

play00:01

narzędzia sztucznej inteligencji

play00:03

podczas prowadzenia wojny

play00:05

przeciwko Palestyńczykom.

play00:07

I co mają z tym wspólnego takie

play00:08

BigTechy, jak Google, Meta,

play00:10

Facebook czy Amazon?

play00:11

W tym filmie to wyjaśniam.

play00:17

Konflikt izraelsko-palestyński jest

play00:19

jednym z najbardziej, najszerzej

play00:20

komentowanych i wywołujących

play00:23

największe emocje konfliktów, które

play00:25

w tym momencie dzieją się na Ziemi.

play00:27

I choć jest wiele konfliktów,

play00:28

takich, w których ginie więcej

play00:29

ludzi, to jednak oczy mediów i nas,

play00:31

odbiorców są skierowane na to

play00:33

właśnie, co dzieje się w Izraelu i w

play00:34

Palestynie. Dlaczego tak się dzieje?

play00:36

Tych powodów jest pewnie bardzo

play00:38

wiele, ale moim zdaniem jednym

play00:40

z ważniejszych jest to, że

play00:42

z tą pewnością walczą ze sobą dwie

play00:44

organizacje.

play00:46

Dwa państwa, które pod względem

play00:48

technologii są na przeciwnych

play00:50

biegunach. Izrael to pod względem

play00:51

wojskowym czy wojskowych

play00:53

technologii jedno z najbardziej

play00:55

zaawansowanych państw świata.

play00:57

A technologią, którą wykorzystuje

play00:59

w tej wojnie jest między innymi

play01:01

sztuczna inteligencja.

play01:03

Do czego konkretnie ona tam jest

play01:05

wykorzystywana?

play01:06

Zanim zacznę, pozwólcie na krótkie

play01:08

wyjaśnienie. W tym filmie nie

play01:10

usłyszycie historii izraelsko

play01:11

palestyńskich konfliktów.

play01:13

Nie usłyszycie też recenzji,

play01:15

kto jest tym dobrym, a kto jest tym

play01:16

złym. Zabijanie zawsze jest

play01:18

złe, a gdy obydwie strony głęboko

play01:20

wierzą w to, że są ofiarami

play01:22

i jedynie się bronią, sprawy stają

play01:24

się jeszcze bardziej skomplikowane.

play01:26

W tym filmie opowiem o jednej

play01:28

technologii, którą Izrael

play01:29

wykorzystuje w konfliktach od

play01:31

dawna.

play01:32

I od razu powiem, że nie tylko

play01:34

Izrael. A patrząc szerzej analizę

play01:36

danych wykorzystują wszystkie

play01:38

armie świata od zawsze.

play01:40

Im ktoś lepiej potrafi dane

play01:42

pozyskiwać, analizować

play01:44

i wyciągać z tych analiz

play01:45

wnioski, tym lepiej.

play01:47

Na polu walki czy czymkolwiek

play01:49

to pole walki jest, tym

play01:51

lepiej sobie radzi.

play01:52

Sztuczna inteligencja nie jest nowym

play01:54

graczem. Jest kontynuacją w pewnym

play01:56

sensie tego, co od zawsze

play01:58

w wojnach grało kluczową rolę.

play02:00

Dobre informacje, dobra analiza

play02:02

danych to nie tylko oszczędności

play02:04

w prowadzeniu wojny.

play02:06

To nie tylko dotkliwsze ciosy

play02:08

zadane przeciwnikowi, ale

play02:10

także mniej przypadkowych

play02:12

ofiar. Warto o tym

play02:14

nie zapominać.

play02:15

AI jest bardzo zaawansowanym

play02:17

systemem analizy danych i

play02:19

to danych każdego rodzaju, z

play02:21

danymi biometrycznymi włącznie.

play02:23

Kojarzy się i w dużej mierze

play02:25

jest technologią umożliwiającą

play02:28

automatyzowanie wojny.

play02:30

A może powinienem powiedzieć

play02:30

automatyzować, zabijania?

play02:32

Ale kojarzy się też z robotami

play02:34

czy systemami mogącymi się

play02:36

zbuntować?

play02:37

Perspektywa drona czy wieżyczki

play02:40

strzelniczej, która jest wyposażona

play02:41

w zestaw czujników i karabin

play02:43

mogący zabijać, to dla wielu

play02:45

jest obraz jak z dystopijinych

play02:47

filmów pokazujących przyszłość,

play02:50

której się przecież boimy.

play02:51

Systemy nadzoru, biometrycznego,

play02:53

systemy czy narzędzia predykcyjne,

play02:55

które nie tyle wiedzą, bo widziały,

play02:58

ile przeczuwają, bo wyznaczyły

play03:00

sobie statystycznie, kto jest

play03:02

winny i zasługuje na śmierć, a kto

play03:04

nie. To wszystko.

play03:05

Ja to rozumiem wzbudza przerażenie.

play03:08

Strefa Gazy, konflikty z

play03:10

Palestyńczykami od wielu lat

play03:12

były wykorzystywane

play03:14

do testowania tych technologii.

play03:16

Jakich konkretnie?

play03:17

Generalnie mamy do czynienia z

play03:19

trzema grupami urządzeń, jeśli

play03:21

mogę tak je nazwać.

play03:22

Pierwsza to autonomiczne albo

play03:24

pół-autonomiczne systemy uzbrojenia.

play03:26

To drony wyposażone w karabiny

play03:28

maszynowe czy rakiety, które służą

play03:30

do zabijania ludzi.

play03:31

Sporo tu jest informacji, które

play03:34

bardzo trudno jest sprawdzić,

play03:35

zweryfikować, dlatego o wielu z nich

play03:38

będę mówił bardzo

play03:40

ogólnie. Ten rodzaj oprogramowania

play03:42

czujników,

play03:44

w które są wyposażony drony, czasami

play03:47

są także w niego wyposażone

play03:49

chociażby wieżyczki strzelnicze

play03:51

umieszczone w miejscach, które mają

play03:53

być zgodnie z taktyką Izraela

play03:55

strefami śmierci albo

play03:58

na wieżyczka, które są umieszczane

play04:00

na granicy ze Strefą Gazy.

play04:01

W ten rodzaj uzbrojenia wchodzą

play04:03

także roboty uzbrojone

play04:05

roboty, np.

play04:06

wybudowany już kilka lat temu

play04:08

robot czy bardziej kołowa

play04:10

platforma Jaguar.

play04:12

Inna grupa systemów spięta

play04:14

z tymi pierwszymi nie strzela, ale

play04:16

rozpoznaje cele.

play04:17

To systemy rozpoznawania twarzy

play04:19

czy innych danych biometrycznych.

play04:21

Kilka tygodni temu pisał o tym

play04:23

The New York Times.

play04:25

Pisał, że taki system

play04:27

od dawna był testowany.

play04:29

Czy takie systemy były udoskonalane

play04:31

i trenowane na Zachodnim Brzegu

play04:32

Jordanu i we Wschodniej Jerozolimie?

play04:34

System kataloguje twarze

play04:36

Palestyńczyków i chyba nie muszę

play04:38

wspominać, że nikt tu nikogo o zgodę

play04:39

nie pyta. Dzięki tym rozpoznają

play04:42

dużo lepiej. Skuteczniej działają

play04:44

systemy, o których już wspomniałem,

play04:45

czyli te służące do zabijania

play04:47

na podstawie zdjęcia twarzy

play04:49

czy zdjęcia rozpoznania całej

play04:51

sylwetki. Trzecia grupa systemów

play04:53

służy do wskazywania celów,

play04:55

które następnie mają być

play04:56

bombardowane.

play04:57

Tu co prawda chodzi bardziej o.

play04:59

Rynki czy ogólnie infrastrukturę.

play05:02

Ale te cele są generowane

play05:04

na podstawie np.

play05:05

informacji o tym, kto wchodzi

play05:07

do danego budynku.

play05:09

A tu znowu wracamy do rozpoznawania

play05:11

twarzy czy całej sylwetki,

play05:13

rejestrowania, analizowania danych

play05:15

biometrycznych.

play05:16

Jeden z takich automat

play05:17

zautomatyzowanych systemów

play05:19

I to mi się nie mieści.

play05:21

Szczerze w głowie nosi nazwę

play05:23

"Ewangelia", inny

play05:25

"Lawenda".

play05:26

Izraelczycy mają także system

play05:28

służący namierzaniu

play05:30

poszukiwanych, gdy ci są

play05:32

w domu razem ze swoimi rodzinami,

play05:34

to ten system został nazwany.

play05:35

Czy jest nazywany "Where is Daddy?",

play05:38

czyli "Gdzie jest tatuś?".

play05:39

A wracając jeszcze do systemu

play05:40

Lavender/Lawenda.

play05:41

Międzynarodowe śledztwo

play05:42

dziennikarskie ujawniło, że system

play05:44

ten w pierwszych dwóch miesiącach

play05:46

wojny, czyli w październiku i

play05:48

listopadzie zeszłego roku,

play05:49

zidentyfikował 37

play05:51

tysięcy Palestyńczyków

play05:53

jako potencjalne cele.

play05:55

W tym samym czasie z tej liczby

play05:56

zabito 15 tysięcy osób.

play05:58

Pisał o tym brytyjski

play06:01

The Guardian, ale też hiszpański

play06:03

dziennik El Pais.

play06:06

Dodatkowo okazało się, że

play06:08

wiele z tych systemów jest

play06:10

pozostawionych bez należytej

play06:12

kontroli, a czynnik ludzki

play06:14

w tym procesie, w tym ciągu

play06:16

decyzyjnym był zminimalizowany,

play06:18

a w niektórych wypadkach mogło go

play06:19

nie być wcale.

play06:20

ONZ krytykuje wykorzystanie

play06:22

automatycznych systemów,

play06:24

ale ta krytyka nie ma żadnej mocy

play06:26

prawnej. Izrael twierdzi, że

play06:28

robi to zgodnie z prawem.

play06:30

Problemem nie jest analiza danych,

play06:32

nawet danych wywiadowczych.

play06:34

Problemem jest predykcja - te

play06:35

systemy nie zabijają tych,

play06:37

którzy np.

play06:39

są bojownikami Hamasu,

play06:41

ale tych, których algorytm za

play06:43

takich uzna na podstawie

play06:44

predykcji.

play06:45

W wielu miejscach na świecie

play06:47

wykorzystywanie takich systemów

play06:48

jest zakazane, choć oczywiście

play06:51

zawsze można powiedzieć, że

play06:53

nigdy nie mamy pewności, czy

play06:55

służby danych krajów takich

play06:56

systemów nie wykorzystują niezgodnie

play06:58

z prawem. W wielu przypadkach

play07:00

najlepsze tego typu systemy

play07:02

inwigiluje analizujące

play07:04

biometria i prowadzące predykcje

play07:06

są produkowane przez firmy

play07:08

izraelskie.

play07:09

Na chłodno, tak bardzo na chłodno,

play07:11

tak na chłodno, że aż mi zimno na

play07:13

plecach. Wiecie już, na czym

play07:15

się tego swojego fachu te

play07:17

firmy uczą?

play07:18

Straszne? Tak, bo system tego

play07:20

typu musi być.

play07:21

Czy systemy tego typu muszą być

play07:23

karmione danymi, które często

play07:25

są danymi dyskryminującymi, a

play07:28

to, że wśród bojowników często

play07:30

zdarzają się faceci z czarną brodą,

play07:32

nie znaczy, że każdy gość z czarną

play07:34

brodą jest bojownikiem.

play07:36

Oczywiście temat spłycam, ale

play07:38

nie aż tak bardzo, jak mogłoby się

play07:40

wydawać. Żeby sprawę skomplikować

play07:42

dodam jeszcze, że systemy

play07:44

predykcyjne, choć oczywiście

play07:46

trenowane na innych zbiorach danych,

play07:48

mogą być bardzo pomocne i mogą

play07:50

ratować życie np.

play07:51

wskazywać, które dziecko może

play07:54

popełnić samobójstwo po

play07:55

to, by zapobiec tragedii, po to, by

play07:57

mu pomóc. I nie, nie uważam,

play08:00

że armia albo policja

play08:02

może, czy powinna takich systemów

play08:04

używać, bo ryzyko pomyłki

play08:06

podczas ich stosowania jest zbyt

play08:08

wysokie. Próbuję tylko

play08:10

opisać kolejny

play08:12

przykład.

play08:13

Szczególnie tych przykładów jest

play08:14

dużo w tematach AI-owych,

play08:17

gdzie ten sam algorytm można

play08:19

wykorzystywać w

play08:20

celach bardzo chwalebnych,

play08:23

jak chociażby ratowanie dzieci

play08:25

w kryzysie jakimś

play08:27

dzieci, które chcą popełnić

play08:28

samobójstwo.

play08:29

Ale ten sam algorytm trenowany na

play08:31

nieco innych danych może

play08:33

po prostu służyć do zautomatyzowania

play08:35

procesu zabijania.

play08:36

Innym problemem zastosowaniem AI

play08:38

na wojnie jest to,

play08:41

na jakich danych rzeczywiście te

play08:42

algorytmy są szkolone.

play08:43

Bojownicy Hamasu czy innych

play08:45

organizacji terrorystycznych nie

play08:46

noszą plakietek na ramieniu

play08:48

i są w dużym stopniu nieuchwytni, a

play08:51

to znaczy, że systemy te są szkolone

play08:53

na osobach, co do których

play08:54

przynależności nie ma pewności.

play08:56

Dziennikarze dotarli do informacji,

play08:58

że systemy biometryczne były

play08:59

trenowane na zdjęciach palestyńskich

play09:01

urzędników, policjantów czy

play09:03

nauczycieli.

play09:04

Z danych, na które powołują się

play09:05

media i mam cały czas na myśli to

play09:07

śledztwo dziennikarskie, wynika,

play09:09

że błąd we wskazaniu,

play09:10

identyfikowaniu.

play09:11

Jak to się pięknie mówi, powiązań

play09:13

danej osoby z Hamasem.

play09:15

Jeśli chodzi o system Lavender

play09:17

wynosi około 10%, czyli

play09:19

na każdych stu zabitych przynajmniej

play09:21

dziesięciu to osoby niewinne.

play09:23

Dużo to czy mało?

play09:24

Jedni powiedzą, że dużo, a inni, że

play09:26

gdyby nie te systemy, pewnie

play09:27

zabitych niewinnych byłoby znacznie

play09:29

więcej. Jakie dane wskazują

play09:31

na powiązania z terrorystami?

play09:34

Izrael nie ujawnia oczywiście pełnej

play09:35

listy, ale wiadomo, że

play09:38

wskazywać na to może np.

play09:41

częsta zmiana numeru telefonu, z

play09:43

którego ktoś dzwoni.

play09:44

Wiadomo też, że wśród bojowników

play09:46

na wyższych stanowiskach nie ma

play09:47

kobiet, więc system generalnie

play09:50

wyszukuje mężczyzn.

play09:52

Mówiąc o błędach, mówimy w zasadzie

play09:54

o kilku rodzajach błędów.

play09:56

Jednym może.

play09:57

Czy jeden może wynikać z predykcji

play09:59

tego, jak system działa,

play10:02

jak się uczy, a szczególnie

play10:04

gdy jest karmiony

play10:06

niepełnymi albo nie prawidłowymi

play10:08

danymi, ale gdy już takie powiązanie

play10:11

powstaje.

play10:12

Drugi błąd może wynikać ze

play10:14

skuteczności czy wrażliwości

play10:16

systemów rozpoznawania twarzy.

play10:18

Także mam tutaj na myśli

play10:20

niedoskonałości systemów optycznych

play10:22

czy sytuację, w której patrzy

play10:24

przygląda się komuś przez

play10:26

chmurę dymu albo

play10:28

dron z wysokości

play10:31

przez przez taką chmurę zawieszoną

play10:32

na niebie?

play10:33

Tych niewinnych, tych nijak nie

play10:35

powiązanych z Hamasem zabitych

play10:37

może być znacznie, znacznie więcej

play10:39

niż średnio 10 osób na 100.

play10:43

Jest jeszcze coś.

play10:44

Niektóre ze wspomnianych przeze mnie

play10:46

systemów są zaprojektowane tak, by

play10:48

niszczyć budynki w nocy, gdy

play10:50

namierzony wcześniej cel jest w

play10:52

środku. Ale tam mogą

play10:53

być też inni ludzie rodzina

play10:55

albo sąsiedzi.

play10:56

A zatem gdzie powinna być ustawiona

play10:59

poprzeczka strat?

play11:00

Hiszpański dziennik, o którym, jak

play11:02

to już się powołałem, El Pais pisał,

play11:04

że akceptowalne jest,

play11:06

aby w jednym bombardowaniu

play11:08

zginęło stu cywilów.

play11:10

Jeśli celem jest wysoki rangą

play11:12

urzędnik Hamasu albo Islamskiego

play11:14

Dżihadu. Z danych tego śledztwa

play11:16

wynika także, że każda z

play11:18

inwigilowany ponad 2 mln

play11:20

osób Palestyńczyków ma podawaną

play11:22

punktację od 1 do 100.

play11:23

Im więcej punktów, tym większa

play11:26

szansa, że zostaniesz zabity.

play11:28

Im bliżej stu punktów,

play11:30

tym większa szansa, że zostaniesz

play11:32

zabity z rodziną czy sąsiadami.

play11:35

Jak wspomniałem, technologie, by

play11:37

móc konkurować na rynku, muszą

play11:39

wykazać się skutecznością.

play11:41

Świat patrzy, jak działają,

play11:43

zanim zdecyduje się kupić.

play11:45

Oczywiście, gdyby nie usługi,

play11:47

jakie Izraelowi świadczą BigTechy,

play11:49

takie jak Google, Facebook, Meta

play11:51

czy Amazon.

play11:52

Mam na myśli tutaj usługi np.

play11:54

chmurowe czy

play11:56

przekazywanie metadanych.

play11:58

Nic by to nic, nic by nie działało.

play12:00

Te systemy po prostu by nie

play12:01

działały. Pośrednio na takiej wojnie

play12:03

zarabiają więc także największe

play12:05

korporacje cyfrowe na Ziemi.

play12:07

I tak to się kręci.

play12:08

Niezależnie od tego, co myślimy o

play12:10

konflikcie izraelsko-palestyńskim.

play12:12

Jak każdy konflikt jest areną

play12:14

do testowania technologii.

play12:16

I tylko ludzi szkoda.

play12:18

Dziękuję bardzo za uwagę.

Rate This

5.0 / 5 (0 votes)

Related Tags
Artificial IntelligenceIsrael-PalestineMilitary TechnologyEthical DilemmaData AnalysisAutonomous SystemsBiometric SurveillancePredictive SystemsCyber WarfareHuman RightsTech GiantsBigTech InvolvementConflict ResolutionAI in WarfareCivilian CasualtiesAlgorithmic BiasSurveillance TechnologyTech Ethics