KI und unsere Gesellschaft | Die Welt der KI entdecken 11

Tilman Michaeli
15 Feb 202317:54

Summary

TLDRDieses Skript beleuchtet die Auswirkungen der künstlichen Intelligenz (KI) auf die Gesellschaft und die damit verbundenen Herausforderungen. Es diskutiert, wie KI in Bereichen wie autonomes Fahren und Kreditvergabe entscheidend wird und die Verantwortung, die damit einhergeht. Es thematisiert auch Diskriminierung in KI-Systemen aufgrund von voreingenommenen Daten und die Notwendigkeit von Transparenz und Erklärbarkeit von KI-Entscheidungen. Schließlich hebt es die Wichtigkeit von KI in sensitiven Anwendungen hervor, wo Zuverlässigkeit und Sicherheit entscheidend sind.

Takeaways

  • 🧠 KI hat eine große Macht und Verantwortung in vielen Bereichen unserer Gesellschaft, einschließlich Energieoptimierung und Entscheidungsfindung in sensiblen Bereichen wie Autonomes Fahren und Kreditvergabe.
  • 🤖 Wir erwarten von KI, faire und objektive Entscheidungen auf der Grundlage von Fakten zu treffen, ohne von Emotionen, Stimmungen oder einseitigen Erfahrungen beeinflusst zu werden.
  • 🔍 Probleme wie rassistische oder sexistische Entscheidungen durch KI-Systeme können durch die Verwendung verzerrter Daten entstehen, die unsere menschlichen Vorurteile widerspiegeln.
  • 📚 Ein Beispiel für KI ist das Word Embedding, bei dem Wörter in einem hochdimensionalen Raum analysiert werden, um Beziehungen und Ähnlichkeiten zwischen ihnen zu visualisieren.
  • 🔢 Um KI-Modelle zu trainieren, werden große Datenmengen benötigt, die oft verzerrt sind und zu unerwünschten Ergebnissen führen können.
  • 👨‍⚕️ Ein Beispiel für KI-Verwendung im Gesundheitswesen ist die Vorstellung eines Arztes, aber KI kann auch fehlerhafte Entscheidungen treffen, wenn ihre Datenlage mangelhaft ist.
  • 🏢 Unternehmen verwenden KI für die Mitarbeiterauswahl, aber hier kann es zu Diskriminierung kommen, wenn der Algorithmus alte Einstellungen und Vorurteile übernimmt.
  • 📋 Die EU-Datenschutz-Grundverordnung (DSGVO) verlangt von Unternehmen, dass sie erklärbare Entscheidungen treffen und Verbrauchern Informationen über die zugrunde liegende Logik ihrer Algorithmen anbieten müssen.
  • 🔑 Das Konzept der Erklärbarkeit (Explainable AI, XAI) zielt darauf ab, Entscheidungen von KI-Systemen nachvollziehbar zu machen, auch wenn die Modelle selbst komplex sind.
  • 🚗 Die Sicherheit von KI ist besonders wichtig, wenn sie in lebenswichtigen Anwendungen wie dem autonomen Fahren eingesetzt wird, und hier können auch scheinbar kleine Störungen zu Problemen führen.
  • 🛠️ Um KI-Systeme zu verbessern, müssen wir sowohl auf technische Lösungen achten als auch die menschlichen Aspekte, wie die Beurteilung verzerrter Daten und die Notwendigkeit von Erklärbarkeit, berücksichtigen.

Q & A

  • Wie beeinflusst künstliche Intelligenz verschiedene Bereiche unserer Gesellschaft?

    -Künstliche Intelligenz beeinflusst viele Bereiche unserer Gesellschaft, indem sie beispielsweise den Energieverbrauch optimiert, alltägliche Aufgaben bewältigt und weitreichende Entscheidungen trifft, wie etwa wann ein autonomes Auto gestartet wird oder wem ein Kredit gewährt wird.

  • Warum ist es wichtig, sich der Verantwortung bei der Nutzung von KI bewusst zu sein?

    -Mit großer Macht kommt auch große Verantwortung. Es ist wichtig, sich der Auswirkungen und Herausforderungen der KI auf unsere Gesellschaft bewusst zu sein, um sicherzustellen, dass die Technologie fair und ethisch eingesetzt wird.

  • Wie können Vorurteile in Algorithmen entstehen?

    -Vorurteile in Algorithmen entstehen, wenn die zugrundeliegenden Daten, mit denen die Algorithmen trainiert werden, von menschlichen Vorurteilen beeinflusst sind. Diese Vorurteile spiegeln sich dann in den Entscheidungen der KI wider.

  • Was ist Word Embedding und wie wird es verwendet?

    -Word Embedding ist eine Technik des Natural Language Processing, bei der Wörter in einem hochdimensionalen Raum eingebettet werden, basierend auf dem Kontext der umgebenden Wörter. Diese Technik wird verwendet, um Ähnlichkeiten zwischen Wörtern zu berechnen und kann für Übersetzungen, Sentiment-Analysen und Textzusammenfassungen eingesetzt werden.

  • Warum sind einige Gesichtserkennungssysteme rassistisch oder sexistisch?

    -Einige Gesichtserkennungssysteme gelten als rassistisch oder sexistisch, weil sie überwiegend mit Daten von kaukasischen Männern trainiert wurden. Dadurch erkennen sie andere ethnische Gruppen und Geschlechter weniger zuverlässig.

  • Welche Probleme können bei der Verwendung von KI zur Beurteilung von Bewerbungen auftreten?

    -KI kann bei der Beurteilung von Bewerbungen Probleme verursachen, wenn die zugrundeliegenden Daten Vorurteile enthalten. Der Algorithmus kann diese Vorurteile übernehmen und Entscheidungen treffen, die bestimmte Gruppen diskriminieren, selbst wenn Informationen wie Geschlecht oder Ethnie aus dem Datensatz entfernt wurden.

  • Was ist die DSGVO und wie beeinflusst sie den Einsatz von KI?

    -Die DSGVO (Datenschutz-Grundverordnung) der EU besagt, dass relevante Entscheidungen über das Leben von Menschen nicht allein von Maschinen getroffen werden dürfen. Verbraucher haben das Recht auf aussagekräftige Informationen über die zugrunde liegende Logik von KI-Entscheidungen.

  • Was bedeutet es, dass eine KI-Entscheidung erklärbar ist?

    -Eine erklärbare KI-Entscheidung bedeutet, dass die wesentlichen Einflussfaktoren für eine bestimmte Entscheidung aufgezeigt werden können. Dies reicht aus, um den Anforderungen der DSGVO zu genügen.

  • Wie können Forscher Schwachstellen in KI-Systemen ausnutzen?

    -Forscher können Schwachstellen in KI-Systemen ausnutzen, indem sie gezielt kleine Veränderungen an Eingabedaten vornehmen. Diese Veränderungen können dazu führen, dass die KI falsche Klassifikationen vornimmt, selbst wenn die Veränderungen für Menschen nicht erkennbar sind.

  • Warum ist es wichtig, dass KI-Systeme robust sind, insbesondere in sicherheitskritischen Anwendungen wie autonomen Fahrzeugen?

    -Es ist wichtig, dass KI-Systeme robust sind, um sicherzustellen, dass sie auch unter veränderten Bedingungen zuverlässig funktionieren. In sicherheitskritischen Anwendungen wie autonomen Fahrzeugen müssen die Systeme präzise und fehlerfrei arbeiten, um Unfälle zu vermeiden und das Vertrauen der Benutzer zu gewährleisten.

Outlines

00:00

🧠 Künstliche Intelligenz und ihre gesellschaftlichen Auswirkungen

Dieses Absatz thematisiert die weitreichenden Einflüsse der künstlichen Intelligenz (KI) auf die Gesellschaft. Es wird auf die Optimierung des Energieverbrauchs und die Bewältigung alltäglicher Aufgaben eingegangen, ebenso wie auf die KI-Anwendungen in Bereichen, die weitreichende Entscheidungen wie das Fahren von autonomen Fahrzeugen oder Kreditvergabe betreffen. Die große Macht der KI wird als eine, die große Verantwortung mit sich bringt, beschrieben. Der Absatz spricht auch von Vorurteilen und Diskriminierungen, die durch KI-Systeme auftreten können, und wie sie durch unfaire oder voreingenommene Daten beeinflusst werden können. Zudem wird auf die Notwendigkeit hingewiesen, KI-Entscheidungen zu verantworten und transparenter zu machen.

05:02

🔍 KI-Systeme und ihre Diskrepanzen zu menschlichen Erwartungen

Der zweite Absatz konzentriert sich auf die Diskrepanzen zwischen den Erwartungen an KI-Systeme und der Realität. Es wird erläutert, dass KI-Systeme, obwohl sie auf Fakten basieren sollen, durch voreingenommene Daten diskriminierend sein können, wie in Fällen von rassistischen Entscheidungen oder sexistischer Gesichtserkennung. Der Text betont, dass KI-Algorithmen selbst nicht diskriminierend sind, sondern unsere menschlichen Vorurteile in die Technologie übertragen werden. Es wird auch auf die Herausforderungen hingewiesen, die mit der Verwendung von KI in der Arbeitsplatzauswahl und Kreditvergabe verbunden sind, und wie KI-Systeme alte Einstellungen lernen können, die möglicherweise nicht objektiv waren.

10:05

🚦 Herausforderungen der KI in der Praxis und deren Lösungsansätze

Dieser Absatz behandelt die Herausforderungen, die KI in der Praxis darstellt, insbesondere in Bezug auf die Verantwortung und Transparenz von Entscheidungen, die KI-Systeme treffen. Es wird auf die EU-Datenschutz-Grundverordnung (DSGVO) verwiesen, die dafür sorgt, dass relevante Entscheidungen über unser Leben nicht allein von Maschinen getroffen werden. Der Absatz diskutiert auch die Idee der Erklärbarkeit von KI-Entscheidungen (Explainable AI) und unterscheidet zwischen Transparenz und Erklärbarkeit. Es wird ein Beispiel gegeben, wie KI-Systeme in der Praxis verwendet werden, um zu erklären, warum eine bestimmte Entscheidung getroffen wurde, wie beispielsweise die Ablehnung einer Kreditbeantragung.

15:06

🛠 KI und ihre Anwendungen in der modernen Welt

Der vierte Absatz schließt den Diskurs über die Auswirkungen der KI auf die Gesellschaft ab und betont, dass KI keine eigene Moral oder Ethik hat und nicht automatisch besser, sicherer oder transparenter ist als menschliche Entscheidungen. Es wird auf die Notwendigkeit hingewiesen, KI-Systeme gründlich zu testen und zu verbessern, um sicherzustellen, dass sie wie beabsichtigt funktionieren, und dass sie in der Lage sind, bestimmte gesellschaftliche Herausforderungen zu bewältigen. Der Absatz endet mit der Aussage, dass viele der Herausforderungen, denen wir in Bezug auf KI gegenüberstehen, denen ähnlich sind, die wir bei traditioneller Software für ähnliche Anwendungsfälle haben, und dass es letztendlich an den Menschen liegt, diese ethisch einzusetzen.

Mindmap

Keywords

💡Künstliche Intelligenz

Künstliche Intelligenz (KI) ist das Fachgebiet der Informatik, das sich mit der Entwicklung von Systemen befasst, die ähnliche Fähigkeiten wie der menschliche Verstand besitzen, wie z.B. das Lernen, Problemlösen und Entscheidungsfindung. Im Video wird KI als zentrales Thema diskutiert, das viele Bereiche der Gesellschaft beeinflusst, von autonomen Fahrzeugen bis hin zu Entscheidungen im Kreditgewährungsprozess.

💡Verantwortung

Verantwortung bezieht sich auf die Pflicht und die moralische Aufgabe, die mit der Macht und dem Einfluss verbunden ist, den KI in der Gesellschaft auszuüben. Im Video wird betont, dass mit der großen Macht, die KI hat, auch eine große Verantwortung einhergeht, insbesondere wenn KI-Systeme weitreichende Entscheidungen treffen, die das Leben der Menschen betreffen.

💡Algorithmen

Algorithmen sind in diesem Zusammenhang die Regeln oder Prozesse, die von KI-Systemen verwendet werden, um Entscheidungen zu treffen. Im Video werden Algorithmen als Instrumente beschrieben, die auf Fakten basieren und von menschlichen Emotionen, Stimmungen oder einseitigen Erfahrungen unbeeinflusst sind, aber auch als Quelle von Problemen, wie z.B. bei der rassistischen oder sexistischen Anwendung in KI-Systemen.

💡Datenverzerrung

Datenverzerrung tritt auf, wenn die Daten, die für die KI-Training verwendet werden, unvollständig oder unausgewogen sind, was zu ungerechten oder ungenauen Ergebnissen führen kann. Im Video wird dies anhand von Beispielen wie der sexistischen Gesichtserkennung oder der Verurteilung durch KI diskutiert, die auf einer unzureichenden oder verzerrten Datenbasis beruhen.

💡Natürliche Sprachverarbeitung

Natürliche Sprachverarbeitung (NLP) ist ein Teil der KI, der sich mit der Interaktion zwischen Computern und menschlicher Sprache befasst. Im Video wird NLP verwendet, um Wörter in einem hochdimensionalen Raum zu visualisieren und die Beziehungen zwischen ihnen zu untersuchen, was für Übersetzungen, Textanalysen und andere Anwendungen wichtig ist.

💡Maschinelles Lernen

Maschinelles Lernen ist eine KI-Technologie, bei der Computer Algorithmen verwenden, um aus Daten zu lernen und Vorhersagen oder Entscheidungen zu treffen. Im Video wird maschinelles Lernen als zentrales Element beschrieben, das für das Funktionieren vieler KI-Systeme erforderlich ist, und es wird auch auf die Notwendigkeit anerkannt, große Datenmengen zu analysieren, um diese Modelle zu trainieren.

💡Diskriminierung

Diskriminierung bedeutet, dass bestimmte Gruppen aufgrund ihrer Zugehörigkeit zu einer bestimmten Kategorie benachteiligt oder bevorzugt werden. Im Video wird besprochen, wie KI-Systeme aufgrund von Datenverzerrungen diskriminierende Entscheidungen treffen können, selbst wenn dies nicht beabsichtigt ist, wie z.B. in der Kreditvergabe oder der Arbeitsplatzbesetzung.

💡Transparenz und Erklärbarkeit

Transparenz und Erklärbarkeit beziehen sich darauf, dass die Entscheidungen von KI-Systemen nachvollzogen und verständlich gemacht werden können. Im Video wird betont, dass es wichtig ist, die Entscheidungen von KI-Systemen zu erklären, um zu verstehen, auf welchen Kriterien sie basieren, insbesondere wenn sie für lebenswichtige Entscheidungen verwendet werden.

💡Datenschutz-Grundverordnung (DSGVO)

Die DSGVO ist ein europäisches Datenschutzgesetz, das die Rechte von Verbrauchern bei der Verwendung persönlicher Daten schützt. Im Video wird die DSGVO als ein Instrument erwähnt, das Verbrauchern das Recht gibt, Informationen über die Logik zu erhalten, die für Entscheidungen von KI-Systemen verwendet wird, die ihr Leben betreffen.

💡Sicherheit

Sicherheit bezieht sich auf die Integrität und Zuverlässigkeit von KI-Systemen, insbesondere in Bezug auf lebenswichtige Entscheidungen. Im Video wird die Bedeutung von Sicherheit hervorgehoben, wenn KI-Systeme in Bereichen wie dem autonomen Fahren eingesetzt werden, und es wird auch auf die Notwendigkeit verwiesen, KI-Systeme sorgfältig zu testen und zu verbessern.

Highlights

Künstliche Intelligenz (KI) beeinflusst viele Bereiche unserer Gesellschaft und trägt zu Entscheidungen bei, wie z.B. autonomes Fahren oder Kreditvergabe.

KI-Systeme sollen faire und objektive Entscheidungen auf Basis von Fakten treffen, ohne Emotionen, Stimmungen oder einseitige Erfahrungen.

Probleme wie rassistische Entscheidungen, ungerechte Verurteilungen und sexistische Gesichtserkennungssysteme werden durch KI diskutiert.

Word Embedding ist eine Technik des Natural Language Processing, die Wörtern in einem hochdimensionalen Raum zuordnet.

KI kann durch Verwendung verzerrter Daten diskriminierend sein, selbst wenn Algorithmen selbst nicht voreingenommen sind.

Bei KI-Entscheidungen über das Leben von Menschen ist Transparenz und Erklärbarkeit wichtig, um Missverständnisse zu vermeiden.

Die Europäische Datenschutz-Grundverordnung (DSGVO) fordert, dass menschenrelevante Entscheidungen nicht allein von Maschinen getroffen werden dürfen.

Explainable AI (XAI) zielt darauf ab, Entscheidungen von KI zu erklären, um eine bessere Verständlichkeit zu erreichen.

KI kann in Bereichen wie autonomes Fahren durch geringe Eingabeänderungen in Schwierigkeiten geraten.

Forschungsansätze ohne Zugang zu internen Modellstrukturen können dazu beitragen, die Zuverlässigkeit von KI-Systemen zu verbessern.

KI konzentriert sich nicht immer auf die gleichen Merkmale wie Menschen, was Schwachstellen in KI-Systemen erzeugt.

KI hat die Fähigkeit, bestimmte Aufgaben schneller und zuverlässiger als Menschen auszuführen, ohne jedoch überall besser zu sein.

KI hat keine Moral oder Ethik, kann also nicht diskriminierungsfrei, transparent oder sicherer als menschliche Entscheidungen sein.

Es wird auf die Notwendigkeit hingewiesen, KI-Systeme gründlich zu testen und zu verbessern, um die bestmögliche Sicherheit zu erreichen.

KI wird in naher Zukunft immer mehr in Bereichen wie Gesundheitswesen und Lebensqualität eingesetzt und kann unsere Gesellschaft erheblich beeinflussen.

Das Verständnis der Prinzipien und Ideen hinter KI ermöglicht es, deren Einfluss auf die Gesellschaft aktiv mitzugestalten.

Transcripts

play00:04

hallo und willkommen zu unserer heutigen

play00:06

einheit die wir bisher gesehen haben

play00:09

beeinflusst ki viele bereiche unserer

play00:12

gesellschaft systeme helfen uns zum

play00:14

beispiel bei der optimierung des

play00:16

energieverbrauchs oder bei der

play00:18

bewältigung unserer tagtäglichen aufgabe

play00:20

ist es den wir treffen aber auch immer

play00:22

mehr weitreichende entscheidungen wie

play00:23

zum beispiel wann ein autonomes auto

play00:25

gekämpft wird oder wem ein kredit

play00:28

gewährt wird aber mit großer macht kommt

play00:31

eben auch große verantwortung

play00:33

heute wollen wir mehr über die

play00:36

auswirkungen der künstlichen intelligenz

play00:37

auf unserer gesellschaft und die damit

play00:39

verbundenen herausforderungen erfahren

play00:42

zunächst schließen wir dazu kurz vor

play00:44

augen und stellen uns einen arzt vor

play00:58

was hast du dir vorgestellt

play01:00

vielleicht so genannten oder jemandem

play01:06

oder jemand wie sie unserer sicht meist

play01:11

es manchmal voreingenommen gegenüber

play01:13

spezifischen erfahrungen die wir in

play01:15

unserem leben gemacht haben und von

play01:18

algorithmen erhoffen wir uns im

play01:19

allgemeinen faire und objektive

play01:21

entscheidungen auf der grundlage von

play01:23

fakten die im gegensatz zu unseren

play01:25

menschlichen entscheidungen eben nicht

play01:27

von emotionen stimmungen oder

play01:29

einseitigen erfahrungen beeinflusst

play01:31

werden und dennoch werden wir den medien

play01:34

von rassistischen jackpots

play01:36

ungerechtfertigten verurteilungen durch

play01:37

künstliche intelligenz und sexistischen

play01:40

gesichtserkennung system mit unserem

play01:42

wissen über hier wollen wir einen

play01:44

genaueren blick auf diese beispiele

play01:46

werfen bei den erwartungen oder

play01:48

hoffnungen nicht mit der realität

play01:50

überein stellen dann lasst das beispiel

play01:55

dafür funktioniert ganz ähnlich wie das

play01:57

topping modeling bei dem wir ja anhand

play01:59

ähnlicher textdokumente ähnliche

play02:02

textdokumente geclustert haben

play02:03

stattdessen können wir auch einzelne

play02:05

wörter amüsieren kann so nennt sich wird

play02:07

im bett ist eine technik des natural

play02:09

language processing bei der wörtern in

play02:11

einem hochemotionalen raum eingebettet

play02:13

werden indem der kontext sinne der

play02:16

umgebenden wörter wie jedes wort in

play02:19

einem textdokument analysiert wird und

play02:21

auf diese weise können wir für einen wie

play02:23

ihn das wort berechnen wie nahe ist an

play02:25

anderen wörtern liegt oder wie weit es

play02:27

von anderen wörtern entfernt ist und

play02:30

eine sehr vereinfachte visualisierung

play02:32

normalerweise haben wir etwa 300

play02:33

dimensionen anstelle dieser 2

play02:35

funktioniert so werden wörter die hund

play02:38

die nahe ein welpe hündchen haustier

play02:41

oder rudel und er weit von wörtern die

play02:45

katze entlastet dadurch können wir

play02:48

analogie zum beispiel grund ist zu wäre

play02:52

die katze zu gigs wobei es

play02:55

höchstwahrscheinlich zu kippen führt

play02:57

oder langsam ist zu langsam

play03:00

wie schnell zu

play03:03

oder paris ist die frankreich wie berlin

play03:07

6 und so weiter wir können wird

play03:11

allerdings zum beispiel für

play03:12

übersetzungen gefühl zu analysen paar

play03:14

phasen und text zusammenfassungen und

play03:16

einige weitere beispiele verwenden

play03:19

weitere informationen über würde

play03:21

allerdings und eine vollständige

play03:22

visualisierung für verschiedene sprachen

play03:24

befinden sich in den weiteren kurs

play03:26

material und wie immer beim maschinen

play03:29

lernen benötigen wir eine menge daten um

play03:31

diese würde berlins lernen zu können

play03:33

eine typische herangehensweise dafür ist

play03:36

das wird nach milliarden von texten zu

play03:38

durchforsten und auf dieser basis ist

play03:42

eben ein entsprechendes diese word excel

play03:44

und schauen wir uns jetzt mal für 1 auf

play03:47

dieser basis entstandene modell an was

play03:49

wir bekommen wenn wir eine analogie für

play03:50

man ist zu arzt wie vtx suchen

play03:55

ja ja ja hat mir zum beispiel

play03:57

krankenschwester oder wenn wir die

play04:01

anthologie man ist so programmierer wie

play04:03

frau zu ex verwenden ist ein

play04:07

zwischenergebnis am ende ausbau der

play04:12

wörter berlin algorithmus hat aus den

play04:14

analysierten dokumenten und websites

play04:15

gelernt dass das wort doktor eher

play04:18

männlich als weiblich ist unsere soziale

play04:21

wahrnehmung dieses berufs die

play04:24

menschliche verzerrungen die wir haben

play04:27

das ganze doch bayers genannt spiegelt

play04:29

sich in der sprache die wir verwenden

play04:30

und in den texten die wir schreiben

play04:32

wieder ein weiteres beispiel dafür

play04:35

kennen wir schon unser affen beispiel

play04:38

von vor einigen einheiten bei dem wir

play04:40

entscheiden mussten beißt angegebene

play04:41

apfel oder nicht und wir haben dafür

play04:44

dass vor dem modell entwickelt um ihm zu

play04:46

klassifizieren und dafür beißt oder

play04:47

nicht und das hat in unserem test daten

play04:50

ziemlich gut funktioniert

play04:51

wir würden jetzt aber dieses tier

play04:53

klassifizieren

play04:57

naja nach unseren regeln würden wir das

play04:59

krokodil höchstwahrscheinlich als nicht

play05:01

beißen einstufen da ich nicht lächelt

play05:03

und kann nichts aus und das könnte ein

play05:06

schwerwiegender fehler sein

play05:08

wieder einmal sind unsere daten verzerrt

play05:10

da sie die tiere in und um so

play05:12

möglicherweise nicht sehr gut

play05:14

repräsentieren

play05:15

genau aus diesem grund werden einige des

play05:17

gesichts erkennungssysteme als der

play05:19

rassistische oder sexistische bezeichnet

play05:20

sie würden nur überwiegend mit

play05:23

kaukasischem männern trainiert sehen wir

play05:29

also das künstliche intelligenz nicht

play05:31

fair ist obwohl wir uns bessere

play05:33

objektive entscheidungen laufen die auf

play05:35

fakten berufen

play05:37

naja die algorithmen und damit die ki

play05:40

selbst sind nicht diskriminierend

play05:42

sexistisch oder rassistisch

play05:45

aber wir menschen sind oftmals

play05:47

voreingenommen und rufe daten sind das

play05:49

auch die daten die wir unsere

play05:51

algorithmen fürs maschine lernprozesse

play05:54

verwenden und wenn diese daten

play05:57

übertragen dabei unsere menschlichen

play05:59

vorurteile auf die technologie für all

play06:03

diese probleme gibt es technologische

play06:05

lösungen

play06:05

aber wir müssen uns über diese

play06:07

verzerrten daten im klaren sein und das

play06:10

ganze explizit adressieren und das wird

play06:15

zum beispiel zu einem problem wenn wir

play06:16

eine ki verwenden um zu beurteilen

play06:17

welche personen eingestellt werden soll

play06:20

was viele unternehmen heutzutage auf

play06:22

diese art und weise machen da die

play06:24

künstliche intelligenz entscheidungen

play06:26

auf der grundlage alter einstellung

play06:28

trifft lernt sie aus diesen alten

play06:31

einstellungen die möglicherweise eben

play06:32

nicht so objektiv waren wir uns das

play06:34

eigentlich auf wenn zum beispiel ein

play06:37

werkzeug zum filtern von bewerbungen mit

play06:39

dem ihr wird die aufhören entscheidungen

play06:41

von personen basieren kann der

play06:43

algorithmus auch lernen frauen oder

play06:45

personen mit einem bestimmten ethnischen

play06:47

hintergrunds diskriminiert das kann

play06:50

sogar dann geschehen wenn diät mir oder

play06:52

das geschlecht im voraus aus dem

play06:54

datensatz entfernt wurde

play06:55

weil der algorithmus oder umständen in

play06:57

der lage ist diese informationen aus dem

play07:00

namen oder adresse weitere informationen

play07:03

des antragstellers zu schießen es gibt

play07:06

zahlreiche fälle in denen bei der

play07:09

einstellung von personen verwendete

play07:11

genau solche probleme hat und dieses

play07:17

problem mit verzerrten daten zum

play07:18

beispiel bei der einstellung oder beim

play07:20

bewerbungsprozess führt uns zu unserem

play07:22

nächsten punkt

play07:23

wenn maschinen entscheidungen über das

play07:25

leben von menschen treffen wollen wir

play07:27

wissen warum und auf welchen kriterien

play07:29

zum beispiel die annahme oder eben

play07:32

nichtannahme unsere bewerbung entstehen

play07:34

wolle auf diese weise können wir auch

play07:37

eine entsprechende erkennen

play07:41

das beispiel dafür ist wenn dieses thema

play07:44

verwendet werden um festzustellen ob wir

play07:45

einen kredit erhalten überrascht und

play07:47

auch da würden wir wahrscheinlich gerne

play07:48

wissen warum wir gegebenenfalls nicht

play07:51

kreditwürdig sind die europäische

play07:54

datenschutz beruht verordnung die sgv

play07:56

diese 2018 in kraft ist mit dafür

play07:59

kriterien fest demnach dürfen relevante

play08:02

entscheidungen über unser leben nicht

play08:04

allein von maschinen getroffen werden

play08:05

und bei der verwendung von algorithmen

play08:07

haben die verbraucher ein recht auf

play08:09

aussagekräftige informationen über die

play08:12

zugrunde liegende logik

play08:15

allerdings haben wir in alle netze

play08:17

gesehen eine technologie die in der

play08:19

praxis sehr sehr weit verbreitet ist und

play08:21

wir haben auch gesehen wie schwierig

play08:23

oder fast unmöglich ist es aufgrund der

play08:25

vielzahl an parametern die

play08:27

entscheidungen diese netze zu verstehen

play08:31

deshalb gibt es ansätze die darauf

play08:33

abzielen die von einer ki getroffenen

play08:35

entscheidungen zu erklären damit das

play08:38

ganze nicht nur blackbox bald diese

play08:40

ansätze werden als ex playmate

play08:42

bezeichnet eine entscheidung zu erklären

play08:45

ist dabei etwas anderes als transparenz

play08:48

transparenz bedeutet dass das verhalten

play08:50

vollständig nachvollziehbar und in der

play08:53

praxis ist diese anforderung nur schwer

play08:55

zu erfüllen bis unmöglich da haben wir

play08:57

gesehen haben die meisten modelle

play08:59

notwendigerweise sehr komplex ist

play09:02

erklärbar keinen gegensatz dazu bedeutet

play09:04

das für eine bestimmte einzelne

play09:06

entscheidung die wesentlichen

play09:08

einflussfaktoren aufgezeigt werden

play09:09

können was sinne der dsgv ausreichend

play09:12

wäre

play09:13

und in unserem beispiel der

play09:15

kreditaufnahme könnte erklärbar kite

play09:17

etwas bedeuten wie wenn sie 45.000 euro

play09:20

statt 30.000 euro im jahr verdienen

play09:22

würden wären sie für einen kredit mit

play09:23

diesen betrag als kreditwürdig

play09:25

eingestuft

play09:29

darüber hinaus ist es so dass wenn die

play09:32

künstliche intelligenz in immer mehr

play09:33

situation einsetzen die unsere

play09:36

gesundheit und unser leben betreffen wie

play09:38

zb autonome autos es sehr wichtig ist

play09:40

dass wir uns auf diesen entscheidungen

play09:42

verlassen können das bedeutet dass wir

play09:44

nicht befürchten müssen dass die systeme

play09:46

versagen wird es auch nur eine kleine

play09:48

änderungen der eingaben gibt

play09:51

bekanntesten beispiele dafür bezieht

play09:53

sich immer auf das autonome fahren wenn

play09:56

man blick auf diese zwei verkehrszeichen

play09:58

geschwindigkeitsbegrenzung center

play10:00

mechanisches namen wie kannst du schön

play10:01

beträgt offensichtlich 35 meist power

play10:04

und damit daneben habe ihn ganz normale

play10:07

stoppschild mit paar aufkleber drauf

play10:09

oder so oder sagen wir mal

play10:14

okay das tempolimit als 85 jahren das

play10:19

ist irgendwo wechseln aber auch ein

play10:22

wenig verständlich wir menschen könnten

play10:24

dieses leicht veränderte schild

play10:26

weihnacht mit schlechten licht und so

play10:28

weiter auf falsch klassifiziert

play10:29

genauso könnte das ein problem für

play10:31

kameras sensoren in einem autonomen auto

play10:33

darstellen

play10:34

aber bis es mit dem stoppschild okay

play10:39

es wird als 45 mal schwierigkeit

play10:43

begrenzungszaun erkannt haben dass ein

play10:47

ähnliches beispiel hat um zu verstehen

play10:48

wie forscher in diesem fall in der lage

play10:50

waren die kassen wollten und dazu

play10:53

brauchten sie nicht mal zugang zu den

play10:54

daten den internen strukturen des

play10:56

modells und so weiter sondern wie ein

play10:58

box angriff nennen sondern sie haben

play11:00

einfach mit dem modell aus einer

play11:02

externen perspektive experimentiert wenn

play11:04

wir eine blackbox angreifen und das was

play11:07

wir im folgenden konkret besprechen

play11:08

wollen ist ein alter serial ata schauen

play11:12

wir uns eine ki an die verschiedenen

play11:14

tiere klassifiziert zb in diesem panda

play11:16

letzte woche hatten wir bereits gelernt

play11:19

dass bilder durch pixel und zum beispiel

play11:22

die überlegungen rot grün und blau werde

play11:24

für jedes pixel darstellen können jetzt

play11:27

auch einfach versuchen pixel für pixel

play11:29

ein wenig das bild verändert zb den

play11:32

robert anzupassen

play11:33

und zu sehen wie das modell reagiert

play11:35

wird das bild noch richtig erkannt und

play11:38

da haben wir die partie bereits

play11:39

erfolgreich ausgeübt nachdem wir den

play11:42

computer viel experimentieren haben

play11:44

lassen halten wir für jedes pixel ein

play11:47

muster für kleinen änderungen dass wir

play11:50

auf unser original bild anwenden können

play11:51

und obwohl wir als menschen keine

play11:54

unterschied zwischen original und dem

play11:57

feld modifizierten bild sehen haben wir

play11:59

nun eine völlig aber klasse beziehung

play12:01

die gleiche weise können wir auch das

play12:03

eher unverdächtige muster der aufkleber

play12:06

auf das stoppschild berechnen dass du

play12:08

einer falschen klassifizierung führt da

play12:11

die aufkleber auf dem stop schildern

play12:12

eine viel kleinere fläche zur verfügung

play12:14

haben als dieses fixen muss dafür das

play12:15

gesamte bild müssen die störungen wie

play12:18

sie erzeugen deutlich bedeuten dass er

play12:19

um die kasse drücken aber nichts so

play12:22

sollten nichtsdestotrotz scheinen sie

play12:24

unverdächtig und könnten nur ein

play12:27

zufälliges graffitis wir sehen also

play12:30

wiedermal maschinen konzentrieren sich

play12:34

nicht auf die gleichen merkmalen erste

play12:36

objekt wie wir menschen das tun würden

play12:37

die menschen klasse ist dann ein panda

play12:39

nach seinen vier beinen dem fell und so

play12:42

weiter werden eine ki vielleicht auf

play12:44

einige für uns menschen seltsame und

play12:46

ziemlich willkürliche muster in den

play12:48

pixeln des bildes fokussiert ohne einen

play12:51

klaren bezug zum eigentlich und objekt

play12:52

herzustellen

play12:53

und genau das können wir nutzen um die

play12:55

calle auszudrücken

play12:57

dabei ist es natürlich mehr als sicher

play12:59

anzunehmen dass aktuelle selbst man

play13:01

autos nicht auf diese stoppschilder

play13:03

hereinfahren würde sie werden mit

play13:05

millionen von stopp-schildern unter

play13:07

verschiedenen umständen lichtbedingungen

play13:09

und so weiter trainiert und auch

play13:11

explizit mit version training das heißt

play13:14

die werden getestet und trainiert mit

play13:15

solchen modell nun kleine störungen in

play13:19

den bildern ist dennoch ist es

play13:21

wahrscheinlich nicht sicher anzunehmen

play13:23

dass angriffe wie diese niemals

play13:26

funktionieren werden die bei

play13:28

traditioneller software müssen wir

play13:29

unsere algorithmen ständig testen und

play13:32

verbessern um die beste sicherheit zu

play13:34

erreichen

play13:34

insbesondere wenn computer

play13:36

entscheidungen treffen die sich

play13:37

unmittelbar auf unser leben auswirkungen

play13:39

und denken sie an die einheit denkt an

play13:43

die einheit über köln

play13:44

verschiedenen denken zurück es gibt

play13:46

nicht eine böswillige karrieren bürger

play13:49

in computer über die wir die kontrolle

play13:50

verloren haben und wer uns versucht

play13:52

absichtlich zuletzt um das heutige thema

play13:56

abzuschließen wollen wir es noch ein

play13:58

paar beispiele anschauen

play13:59

die unsere gesellschaft schon heute

play14:01

beeinflusst oder in naher zeit

play14:02

beeinflussen wird

play14:04

wir haben in den vergangen wochen viel

play14:06

darüber gelernt wozu kann die heute

play14:07

fähig ist kann bis zu einem gewissen

play14:10

grad nachrichten artikel zu bestimmten

play14:11

themen zb sport 1 und kann die

play14:14

kampfsport auch live ticker allein auf

play14:17

der grundlage aktueller statistiken wie

play14:18

ballbesitz und so weiter wie kann eine

play14:22

fertigungs arbeiten besser schneller und

play14:24

zuverlässiger erledigen als wir menschen

play14:26

künstliche intelligenz kann sich auch

play14:28

erfahren und so weiter immer mehr

play14:32

aufgaben können künstliche intelligenz

play14:34

automatisiert werden für die bisher

play14:36

wenn wir uns an die definition von

play14:38

beginn dieses kurses r in menschlicher

play14:40

form ich war also ja künstliche

play14:44

intelligenz und im allgemeinen die

play14:46

digitale transformation verändert unsere

play14:49

art zu arbeiten zu kommunizieren und zu

play14:52

leben aber wir mit diesen kurs gelernt

play14:54

dass kay uns menschen nicht verdrängen

play14:57

wird haben gelernt dass sie uns bei

play15:00

bestimmten aufgaben übertreffen kann

play15:01

aber nicht mehr als das

play15:03

das ist ähnlich wie bei einem bagger

play15:05

einen bagger kann besser graben als

play15:07

jeder mensch ist jemals können wird aber

play15:09

auch nicht mehr als das was haben wir

play15:14

also heute über den einfluss von

play15:15

künstlicher intelligenz gelernt jetzt wo

play15:17

wir die ideen und prinzipien verstanden

play15:19

haben wir haben gesehen dass software

play15:23

und künstliche intelligenz keine moral

play15:25

oder ethik haben können aber keine

play15:28

diskriminierung oder ausgefuchster sie

play15:31

ist nicht automatisch wehrer

play15:32

transparenter oder sicherer als unsere

play15:35

menschlichen entscheidungen wenn die

play15:37

systeme für aufgaben mit

play15:39

gesellschaftlicher relevanz verwenden

play15:41

die sich auf unsere gesundheit unser

play15:43

leben und so weiter auswirken müssen wir

play15:45

dinge wie verzerrte daten

play15:47

berücksichtigen die zur diskriminierung

play15:49

führen

play15:49

und wir müssen maßnahmen ergreifen und

play15:52

die entscheidung von ki system erklärbar

play15:54

zu machen und crm-systeme robust zu

play15:56

gestalten das sind mehrheitlich

play15:59

algorithmische probleme die gelöst

play16:01

werden können ganz viele der

play16:04

herausforderungen vor denen wir im

play16:06

kontext von künstliche intelligenz

play16:07

stehen unterscheiden sich dabei gar

play16:09

nicht so sehr von den herausforderungen

play16:10

denen wir bei traditioneller software

play16:12

für ähnliche anwendungsfälle begegnen

play16:14

solche software muss gründlich getestet

play16:17

werden um sicherzustellen dass sie auch

play16:19

wie beabsichtigt funktioniert und wenn

play16:22

es um diskussionen darüber geht wo genau

play16:24

hier angewendet werden soll und wo nicht

play16:26

ist es am ende dasselbe wie beim wetter

play16:29

die menschen nun können sie auf einem

play16:31

mehr oder weniger ethische weisung in

play16:36

diesem kurs haben wir die grundlegenden

play16:37

prinzipien und die ideen der künstlichen

play16:39

intelligenz kennengelernt

play16:40

dadurch sind wir in der lage

play16:42

möglichkeiten und grenzen von

play16:43

künstlicher intelligenz einzuschätzen

play16:45

und den einfluss von ki system auf

play16:48

unserer gesellschaft aktiv mit wir

play16:52

hoffen du hast ein besseres verständnis

play16:53

über künstliche intelligenz symbolische

play16:56

ansätze maschinellen lernverfahren

play16:58

neuronale netze ob maschinen lenken

play17:01

können oder auch den einfluss von ko auf

play17:04

unser tägliches leben und unsere

play17:06

gesellschaft bekommen wenn du mehr zum

play17:09

thema erfahren will ist empfehlen wir

play17:10

die einerseits die wie geht s weiter

play17:13

abschnitt in den erweiterten

play17:15

kursmaterial und andererseits schau doch

play17:18

auch computer die passion punkt de

play17:19

vorbei dort findest du viele weitere

play17:23

und wenn du eine lehrkraft oder

play17:25

anderweitigen bildungssektor tätig bist

play17:27

haben wir noch ein extra video genau für

play17:29

deine anforderungen die kann nicht

play17:31

künstlich intelligenz unterrichten

play17:32

vorbereitet in jedem fall

play17:36

vielen dank dass du dich mit uns auf

play17:38

diese reise durch die welt der

play17:40

künstlichen intelligenz eingelassen hass

play17:42

und wir hoffentlich bald auf unserer

play17:44

nächsten reise durch die faszinierende

play17:46

welt der informatik zu sehen

Rate This

5.0 / 5 (0 votes)

Related Tags
Künstliche IntelligenzGesellschaftEthikDatenschutzAlgorithmenTransparenzDiskriminierungMaschinelles LernenAutonome AutosBewerbungsprozesse
Do you need a summary in English?