KI und unsere Gesellschaft | Die Welt der KI entdecken 11
Summary
TLDRDieses Skript beleuchtet die Auswirkungen der künstlichen Intelligenz (KI) auf die Gesellschaft und die damit verbundenen Herausforderungen. Es diskutiert, wie KI in Bereichen wie autonomes Fahren und Kreditvergabe entscheidend wird und die Verantwortung, die damit einhergeht. Es thematisiert auch Diskriminierung in KI-Systemen aufgrund von voreingenommenen Daten und die Notwendigkeit von Transparenz und Erklärbarkeit von KI-Entscheidungen. Schließlich hebt es die Wichtigkeit von KI in sensitiven Anwendungen hervor, wo Zuverlässigkeit und Sicherheit entscheidend sind.
Takeaways
- 🧠 KI hat eine große Macht und Verantwortung in vielen Bereichen unserer Gesellschaft, einschließlich Energieoptimierung und Entscheidungsfindung in sensiblen Bereichen wie Autonomes Fahren und Kreditvergabe.
- 🤖 Wir erwarten von KI, faire und objektive Entscheidungen auf der Grundlage von Fakten zu treffen, ohne von Emotionen, Stimmungen oder einseitigen Erfahrungen beeinflusst zu werden.
- 🔍 Probleme wie rassistische oder sexistische Entscheidungen durch KI-Systeme können durch die Verwendung verzerrter Daten entstehen, die unsere menschlichen Vorurteile widerspiegeln.
- 📚 Ein Beispiel für KI ist das Word Embedding, bei dem Wörter in einem hochdimensionalen Raum analysiert werden, um Beziehungen und Ähnlichkeiten zwischen ihnen zu visualisieren.
- 🔢 Um KI-Modelle zu trainieren, werden große Datenmengen benötigt, die oft verzerrt sind und zu unerwünschten Ergebnissen führen können.
- 👨⚕️ Ein Beispiel für KI-Verwendung im Gesundheitswesen ist die Vorstellung eines Arztes, aber KI kann auch fehlerhafte Entscheidungen treffen, wenn ihre Datenlage mangelhaft ist.
- 🏢 Unternehmen verwenden KI für die Mitarbeiterauswahl, aber hier kann es zu Diskriminierung kommen, wenn der Algorithmus alte Einstellungen und Vorurteile übernimmt.
- 📋 Die EU-Datenschutz-Grundverordnung (DSGVO) verlangt von Unternehmen, dass sie erklärbare Entscheidungen treffen und Verbrauchern Informationen über die zugrunde liegende Logik ihrer Algorithmen anbieten müssen.
- 🔑 Das Konzept der Erklärbarkeit (Explainable AI, XAI) zielt darauf ab, Entscheidungen von KI-Systemen nachvollziehbar zu machen, auch wenn die Modelle selbst komplex sind.
- 🚗 Die Sicherheit von KI ist besonders wichtig, wenn sie in lebenswichtigen Anwendungen wie dem autonomen Fahren eingesetzt wird, und hier können auch scheinbar kleine Störungen zu Problemen führen.
- 🛠️ Um KI-Systeme zu verbessern, müssen wir sowohl auf technische Lösungen achten als auch die menschlichen Aspekte, wie die Beurteilung verzerrter Daten und die Notwendigkeit von Erklärbarkeit, berücksichtigen.
Q & A
Wie beeinflusst künstliche Intelligenz verschiedene Bereiche unserer Gesellschaft?
-Künstliche Intelligenz beeinflusst viele Bereiche unserer Gesellschaft, indem sie beispielsweise den Energieverbrauch optimiert, alltägliche Aufgaben bewältigt und weitreichende Entscheidungen trifft, wie etwa wann ein autonomes Auto gestartet wird oder wem ein Kredit gewährt wird.
Warum ist es wichtig, sich der Verantwortung bei der Nutzung von KI bewusst zu sein?
-Mit großer Macht kommt auch große Verantwortung. Es ist wichtig, sich der Auswirkungen und Herausforderungen der KI auf unsere Gesellschaft bewusst zu sein, um sicherzustellen, dass die Technologie fair und ethisch eingesetzt wird.
Wie können Vorurteile in Algorithmen entstehen?
-Vorurteile in Algorithmen entstehen, wenn die zugrundeliegenden Daten, mit denen die Algorithmen trainiert werden, von menschlichen Vorurteilen beeinflusst sind. Diese Vorurteile spiegeln sich dann in den Entscheidungen der KI wider.
Was ist Word Embedding und wie wird es verwendet?
-Word Embedding ist eine Technik des Natural Language Processing, bei der Wörter in einem hochdimensionalen Raum eingebettet werden, basierend auf dem Kontext der umgebenden Wörter. Diese Technik wird verwendet, um Ähnlichkeiten zwischen Wörtern zu berechnen und kann für Übersetzungen, Sentiment-Analysen und Textzusammenfassungen eingesetzt werden.
Warum sind einige Gesichtserkennungssysteme rassistisch oder sexistisch?
-Einige Gesichtserkennungssysteme gelten als rassistisch oder sexistisch, weil sie überwiegend mit Daten von kaukasischen Männern trainiert wurden. Dadurch erkennen sie andere ethnische Gruppen und Geschlechter weniger zuverlässig.
Welche Probleme können bei der Verwendung von KI zur Beurteilung von Bewerbungen auftreten?
-KI kann bei der Beurteilung von Bewerbungen Probleme verursachen, wenn die zugrundeliegenden Daten Vorurteile enthalten. Der Algorithmus kann diese Vorurteile übernehmen und Entscheidungen treffen, die bestimmte Gruppen diskriminieren, selbst wenn Informationen wie Geschlecht oder Ethnie aus dem Datensatz entfernt wurden.
Was ist die DSGVO und wie beeinflusst sie den Einsatz von KI?
-Die DSGVO (Datenschutz-Grundverordnung) der EU besagt, dass relevante Entscheidungen über das Leben von Menschen nicht allein von Maschinen getroffen werden dürfen. Verbraucher haben das Recht auf aussagekräftige Informationen über die zugrunde liegende Logik von KI-Entscheidungen.
Was bedeutet es, dass eine KI-Entscheidung erklärbar ist?
-Eine erklärbare KI-Entscheidung bedeutet, dass die wesentlichen Einflussfaktoren für eine bestimmte Entscheidung aufgezeigt werden können. Dies reicht aus, um den Anforderungen der DSGVO zu genügen.
Wie können Forscher Schwachstellen in KI-Systemen ausnutzen?
-Forscher können Schwachstellen in KI-Systemen ausnutzen, indem sie gezielt kleine Veränderungen an Eingabedaten vornehmen. Diese Veränderungen können dazu führen, dass die KI falsche Klassifikationen vornimmt, selbst wenn die Veränderungen für Menschen nicht erkennbar sind.
Warum ist es wichtig, dass KI-Systeme robust sind, insbesondere in sicherheitskritischen Anwendungen wie autonomen Fahrzeugen?
-Es ist wichtig, dass KI-Systeme robust sind, um sicherzustellen, dass sie auch unter veränderten Bedingungen zuverlässig funktionieren. In sicherheitskritischen Anwendungen wie autonomen Fahrzeugen müssen die Systeme präzise und fehlerfrei arbeiten, um Unfälle zu vermeiden und das Vertrauen der Benutzer zu gewährleisten.
Outlines
🧠 Künstliche Intelligenz und ihre gesellschaftlichen Auswirkungen
Dieses Absatz thematisiert die weitreichenden Einflüsse der künstlichen Intelligenz (KI) auf die Gesellschaft. Es wird auf die Optimierung des Energieverbrauchs und die Bewältigung alltäglicher Aufgaben eingegangen, ebenso wie auf die KI-Anwendungen in Bereichen, die weitreichende Entscheidungen wie das Fahren von autonomen Fahrzeugen oder Kreditvergabe betreffen. Die große Macht der KI wird als eine, die große Verantwortung mit sich bringt, beschrieben. Der Absatz spricht auch von Vorurteilen und Diskriminierungen, die durch KI-Systeme auftreten können, und wie sie durch unfaire oder voreingenommene Daten beeinflusst werden können. Zudem wird auf die Notwendigkeit hingewiesen, KI-Entscheidungen zu verantworten und transparenter zu machen.
🔍 KI-Systeme und ihre Diskrepanzen zu menschlichen Erwartungen
Der zweite Absatz konzentriert sich auf die Diskrepanzen zwischen den Erwartungen an KI-Systeme und der Realität. Es wird erläutert, dass KI-Systeme, obwohl sie auf Fakten basieren sollen, durch voreingenommene Daten diskriminierend sein können, wie in Fällen von rassistischen Entscheidungen oder sexistischer Gesichtserkennung. Der Text betont, dass KI-Algorithmen selbst nicht diskriminierend sind, sondern unsere menschlichen Vorurteile in die Technologie übertragen werden. Es wird auch auf die Herausforderungen hingewiesen, die mit der Verwendung von KI in der Arbeitsplatzauswahl und Kreditvergabe verbunden sind, und wie KI-Systeme alte Einstellungen lernen können, die möglicherweise nicht objektiv waren.
🚦 Herausforderungen der KI in der Praxis und deren Lösungsansätze
Dieser Absatz behandelt die Herausforderungen, die KI in der Praxis darstellt, insbesondere in Bezug auf die Verantwortung und Transparenz von Entscheidungen, die KI-Systeme treffen. Es wird auf die EU-Datenschutz-Grundverordnung (DSGVO) verwiesen, die dafür sorgt, dass relevante Entscheidungen über unser Leben nicht allein von Maschinen getroffen werden. Der Absatz diskutiert auch die Idee der Erklärbarkeit von KI-Entscheidungen (Explainable AI) und unterscheidet zwischen Transparenz und Erklärbarkeit. Es wird ein Beispiel gegeben, wie KI-Systeme in der Praxis verwendet werden, um zu erklären, warum eine bestimmte Entscheidung getroffen wurde, wie beispielsweise die Ablehnung einer Kreditbeantragung.
🛠 KI und ihre Anwendungen in der modernen Welt
Der vierte Absatz schließt den Diskurs über die Auswirkungen der KI auf die Gesellschaft ab und betont, dass KI keine eigene Moral oder Ethik hat und nicht automatisch besser, sicherer oder transparenter ist als menschliche Entscheidungen. Es wird auf die Notwendigkeit hingewiesen, KI-Systeme gründlich zu testen und zu verbessern, um sicherzustellen, dass sie wie beabsichtigt funktionieren, und dass sie in der Lage sind, bestimmte gesellschaftliche Herausforderungen zu bewältigen. Der Absatz endet mit der Aussage, dass viele der Herausforderungen, denen wir in Bezug auf KI gegenüberstehen, denen ähnlich sind, die wir bei traditioneller Software für ähnliche Anwendungsfälle haben, und dass es letztendlich an den Menschen liegt, diese ethisch einzusetzen.
Mindmap
Keywords
💡Künstliche Intelligenz
💡Verantwortung
💡Algorithmen
💡Datenverzerrung
💡Natürliche Sprachverarbeitung
💡Maschinelles Lernen
💡Diskriminierung
💡Transparenz und Erklärbarkeit
💡Datenschutz-Grundverordnung (DSGVO)
💡Sicherheit
Highlights
Künstliche Intelligenz (KI) beeinflusst viele Bereiche unserer Gesellschaft und trägt zu Entscheidungen bei, wie z.B. autonomes Fahren oder Kreditvergabe.
KI-Systeme sollen faire und objektive Entscheidungen auf Basis von Fakten treffen, ohne Emotionen, Stimmungen oder einseitige Erfahrungen.
Probleme wie rassistische Entscheidungen, ungerechte Verurteilungen und sexistische Gesichtserkennungssysteme werden durch KI diskutiert.
Word Embedding ist eine Technik des Natural Language Processing, die Wörtern in einem hochdimensionalen Raum zuordnet.
KI kann durch Verwendung verzerrter Daten diskriminierend sein, selbst wenn Algorithmen selbst nicht voreingenommen sind.
Bei KI-Entscheidungen über das Leben von Menschen ist Transparenz und Erklärbarkeit wichtig, um Missverständnisse zu vermeiden.
Die Europäische Datenschutz-Grundverordnung (DSGVO) fordert, dass menschenrelevante Entscheidungen nicht allein von Maschinen getroffen werden dürfen.
Explainable AI (XAI) zielt darauf ab, Entscheidungen von KI zu erklären, um eine bessere Verständlichkeit zu erreichen.
KI kann in Bereichen wie autonomes Fahren durch geringe Eingabeänderungen in Schwierigkeiten geraten.
Forschungsansätze ohne Zugang zu internen Modellstrukturen können dazu beitragen, die Zuverlässigkeit von KI-Systemen zu verbessern.
KI konzentriert sich nicht immer auf die gleichen Merkmale wie Menschen, was Schwachstellen in KI-Systemen erzeugt.
KI hat die Fähigkeit, bestimmte Aufgaben schneller und zuverlässiger als Menschen auszuführen, ohne jedoch überall besser zu sein.
KI hat keine Moral oder Ethik, kann also nicht diskriminierungsfrei, transparent oder sicherer als menschliche Entscheidungen sein.
Es wird auf die Notwendigkeit hingewiesen, KI-Systeme gründlich zu testen und zu verbessern, um die bestmögliche Sicherheit zu erreichen.
KI wird in naher Zukunft immer mehr in Bereichen wie Gesundheitswesen und Lebensqualität eingesetzt und kann unsere Gesellschaft erheblich beeinflussen.
Das Verständnis der Prinzipien und Ideen hinter KI ermöglicht es, deren Einfluss auf die Gesellschaft aktiv mitzugestalten.
Transcripts
hallo und willkommen zu unserer heutigen
einheit die wir bisher gesehen haben
beeinflusst ki viele bereiche unserer
gesellschaft systeme helfen uns zum
beispiel bei der optimierung des
energieverbrauchs oder bei der
bewältigung unserer tagtäglichen aufgabe
ist es den wir treffen aber auch immer
mehr weitreichende entscheidungen wie
zum beispiel wann ein autonomes auto
gekämpft wird oder wem ein kredit
gewährt wird aber mit großer macht kommt
eben auch große verantwortung
heute wollen wir mehr über die
auswirkungen der künstlichen intelligenz
auf unserer gesellschaft und die damit
verbundenen herausforderungen erfahren
zunächst schließen wir dazu kurz vor
augen und stellen uns einen arzt vor
was hast du dir vorgestellt
vielleicht so genannten oder jemandem
oder jemand wie sie unserer sicht meist
es manchmal voreingenommen gegenüber
spezifischen erfahrungen die wir in
unserem leben gemacht haben und von
algorithmen erhoffen wir uns im
allgemeinen faire und objektive
entscheidungen auf der grundlage von
fakten die im gegensatz zu unseren
menschlichen entscheidungen eben nicht
von emotionen stimmungen oder
einseitigen erfahrungen beeinflusst
werden und dennoch werden wir den medien
von rassistischen jackpots
ungerechtfertigten verurteilungen durch
künstliche intelligenz und sexistischen
gesichtserkennung system mit unserem
wissen über hier wollen wir einen
genaueren blick auf diese beispiele
werfen bei den erwartungen oder
hoffnungen nicht mit der realität
überein stellen dann lasst das beispiel
dafür funktioniert ganz ähnlich wie das
topping modeling bei dem wir ja anhand
ähnlicher textdokumente ähnliche
textdokumente geclustert haben
stattdessen können wir auch einzelne
wörter amüsieren kann so nennt sich wird
im bett ist eine technik des natural
language processing bei der wörtern in
einem hochemotionalen raum eingebettet
werden indem der kontext sinne der
umgebenden wörter wie jedes wort in
einem textdokument analysiert wird und
auf diese weise können wir für einen wie
ihn das wort berechnen wie nahe ist an
anderen wörtern liegt oder wie weit es
von anderen wörtern entfernt ist und
eine sehr vereinfachte visualisierung
normalerweise haben wir etwa 300
dimensionen anstelle dieser 2
funktioniert so werden wörter die hund
die nahe ein welpe hündchen haustier
oder rudel und er weit von wörtern die
katze entlastet dadurch können wir
analogie zum beispiel grund ist zu wäre
die katze zu gigs wobei es
höchstwahrscheinlich zu kippen führt
oder langsam ist zu langsam
wie schnell zu
oder paris ist die frankreich wie berlin
6 und so weiter wir können wird
allerdings zum beispiel für
übersetzungen gefühl zu analysen paar
phasen und text zusammenfassungen und
einige weitere beispiele verwenden
weitere informationen über würde
allerdings und eine vollständige
visualisierung für verschiedene sprachen
befinden sich in den weiteren kurs
material und wie immer beim maschinen
lernen benötigen wir eine menge daten um
diese würde berlins lernen zu können
eine typische herangehensweise dafür ist
das wird nach milliarden von texten zu
durchforsten und auf dieser basis ist
eben ein entsprechendes diese word excel
und schauen wir uns jetzt mal für 1 auf
dieser basis entstandene modell an was
wir bekommen wenn wir eine analogie für
man ist zu arzt wie vtx suchen
ja ja ja hat mir zum beispiel
krankenschwester oder wenn wir die
anthologie man ist so programmierer wie
frau zu ex verwenden ist ein
zwischenergebnis am ende ausbau der
wörter berlin algorithmus hat aus den
analysierten dokumenten und websites
gelernt dass das wort doktor eher
männlich als weiblich ist unsere soziale
wahrnehmung dieses berufs die
menschliche verzerrungen die wir haben
das ganze doch bayers genannt spiegelt
sich in der sprache die wir verwenden
und in den texten die wir schreiben
wieder ein weiteres beispiel dafür
kennen wir schon unser affen beispiel
von vor einigen einheiten bei dem wir
entscheiden mussten beißt angegebene
apfel oder nicht und wir haben dafür
dass vor dem modell entwickelt um ihm zu
klassifizieren und dafür beißt oder
nicht und das hat in unserem test daten
ziemlich gut funktioniert
wir würden jetzt aber dieses tier
klassifizieren
naja nach unseren regeln würden wir das
krokodil höchstwahrscheinlich als nicht
beißen einstufen da ich nicht lächelt
und kann nichts aus und das könnte ein
schwerwiegender fehler sein
wieder einmal sind unsere daten verzerrt
da sie die tiere in und um so
möglicherweise nicht sehr gut
repräsentieren
genau aus diesem grund werden einige des
gesichts erkennungssysteme als der
rassistische oder sexistische bezeichnet
sie würden nur überwiegend mit
kaukasischem männern trainiert sehen wir
also das künstliche intelligenz nicht
fair ist obwohl wir uns bessere
objektive entscheidungen laufen die auf
fakten berufen
naja die algorithmen und damit die ki
selbst sind nicht diskriminierend
sexistisch oder rassistisch
aber wir menschen sind oftmals
voreingenommen und rufe daten sind das
auch die daten die wir unsere
algorithmen fürs maschine lernprozesse
verwenden und wenn diese daten
übertragen dabei unsere menschlichen
vorurteile auf die technologie für all
diese probleme gibt es technologische
lösungen
aber wir müssen uns über diese
verzerrten daten im klaren sein und das
ganze explizit adressieren und das wird
zum beispiel zu einem problem wenn wir
eine ki verwenden um zu beurteilen
welche personen eingestellt werden soll
was viele unternehmen heutzutage auf
diese art und weise machen da die
künstliche intelligenz entscheidungen
auf der grundlage alter einstellung
trifft lernt sie aus diesen alten
einstellungen die möglicherweise eben
nicht so objektiv waren wir uns das
eigentlich auf wenn zum beispiel ein
werkzeug zum filtern von bewerbungen mit
dem ihr wird die aufhören entscheidungen
von personen basieren kann der
algorithmus auch lernen frauen oder
personen mit einem bestimmten ethnischen
hintergrunds diskriminiert das kann
sogar dann geschehen wenn diät mir oder
das geschlecht im voraus aus dem
datensatz entfernt wurde
weil der algorithmus oder umständen in
der lage ist diese informationen aus dem
namen oder adresse weitere informationen
des antragstellers zu schießen es gibt
zahlreiche fälle in denen bei der
einstellung von personen verwendete
genau solche probleme hat und dieses
problem mit verzerrten daten zum
beispiel bei der einstellung oder beim
bewerbungsprozess führt uns zu unserem
nächsten punkt
wenn maschinen entscheidungen über das
leben von menschen treffen wollen wir
wissen warum und auf welchen kriterien
zum beispiel die annahme oder eben
nichtannahme unsere bewerbung entstehen
wolle auf diese weise können wir auch
eine entsprechende erkennen
das beispiel dafür ist wenn dieses thema
verwendet werden um festzustellen ob wir
einen kredit erhalten überrascht und
auch da würden wir wahrscheinlich gerne
wissen warum wir gegebenenfalls nicht
kreditwürdig sind die europäische
datenschutz beruht verordnung die sgv
diese 2018 in kraft ist mit dafür
kriterien fest demnach dürfen relevante
entscheidungen über unser leben nicht
allein von maschinen getroffen werden
und bei der verwendung von algorithmen
haben die verbraucher ein recht auf
aussagekräftige informationen über die
zugrunde liegende logik
allerdings haben wir in alle netze
gesehen eine technologie die in der
praxis sehr sehr weit verbreitet ist und
wir haben auch gesehen wie schwierig
oder fast unmöglich ist es aufgrund der
vielzahl an parametern die
entscheidungen diese netze zu verstehen
deshalb gibt es ansätze die darauf
abzielen die von einer ki getroffenen
entscheidungen zu erklären damit das
ganze nicht nur blackbox bald diese
ansätze werden als ex playmate
bezeichnet eine entscheidung zu erklären
ist dabei etwas anderes als transparenz
transparenz bedeutet dass das verhalten
vollständig nachvollziehbar und in der
praxis ist diese anforderung nur schwer
zu erfüllen bis unmöglich da haben wir
gesehen haben die meisten modelle
notwendigerweise sehr komplex ist
erklärbar keinen gegensatz dazu bedeutet
das für eine bestimmte einzelne
entscheidung die wesentlichen
einflussfaktoren aufgezeigt werden
können was sinne der dsgv ausreichend
wäre
und in unserem beispiel der
kreditaufnahme könnte erklärbar kite
etwas bedeuten wie wenn sie 45.000 euro
statt 30.000 euro im jahr verdienen
würden wären sie für einen kredit mit
diesen betrag als kreditwürdig
eingestuft
darüber hinaus ist es so dass wenn die
künstliche intelligenz in immer mehr
situation einsetzen die unsere
gesundheit und unser leben betreffen wie
zb autonome autos es sehr wichtig ist
dass wir uns auf diesen entscheidungen
verlassen können das bedeutet dass wir
nicht befürchten müssen dass die systeme
versagen wird es auch nur eine kleine
änderungen der eingaben gibt
bekanntesten beispiele dafür bezieht
sich immer auf das autonome fahren wenn
man blick auf diese zwei verkehrszeichen
geschwindigkeitsbegrenzung center
mechanisches namen wie kannst du schön
beträgt offensichtlich 35 meist power
und damit daneben habe ihn ganz normale
stoppschild mit paar aufkleber drauf
oder so oder sagen wir mal
okay das tempolimit als 85 jahren das
ist irgendwo wechseln aber auch ein
wenig verständlich wir menschen könnten
dieses leicht veränderte schild
weihnacht mit schlechten licht und so
weiter auf falsch klassifiziert
genauso könnte das ein problem für
kameras sensoren in einem autonomen auto
darstellen
aber bis es mit dem stoppschild okay
es wird als 45 mal schwierigkeit
begrenzungszaun erkannt haben dass ein
ähnliches beispiel hat um zu verstehen
wie forscher in diesem fall in der lage
waren die kassen wollten und dazu
brauchten sie nicht mal zugang zu den
daten den internen strukturen des
modells und so weiter sondern wie ein
box angriff nennen sondern sie haben
einfach mit dem modell aus einer
externen perspektive experimentiert wenn
wir eine blackbox angreifen und das was
wir im folgenden konkret besprechen
wollen ist ein alter serial ata schauen
wir uns eine ki an die verschiedenen
tiere klassifiziert zb in diesem panda
letzte woche hatten wir bereits gelernt
dass bilder durch pixel und zum beispiel
die überlegungen rot grün und blau werde
für jedes pixel darstellen können jetzt
auch einfach versuchen pixel für pixel
ein wenig das bild verändert zb den
robert anzupassen
und zu sehen wie das modell reagiert
wird das bild noch richtig erkannt und
da haben wir die partie bereits
erfolgreich ausgeübt nachdem wir den
computer viel experimentieren haben
lassen halten wir für jedes pixel ein
muster für kleinen änderungen dass wir
auf unser original bild anwenden können
und obwohl wir als menschen keine
unterschied zwischen original und dem
feld modifizierten bild sehen haben wir
nun eine völlig aber klasse beziehung
die gleiche weise können wir auch das
eher unverdächtige muster der aufkleber
auf das stoppschild berechnen dass du
einer falschen klassifizierung führt da
die aufkleber auf dem stop schildern
eine viel kleinere fläche zur verfügung
haben als dieses fixen muss dafür das
gesamte bild müssen die störungen wie
sie erzeugen deutlich bedeuten dass er
um die kasse drücken aber nichts so
sollten nichtsdestotrotz scheinen sie
unverdächtig und könnten nur ein
zufälliges graffitis wir sehen also
wiedermal maschinen konzentrieren sich
nicht auf die gleichen merkmalen erste
objekt wie wir menschen das tun würden
die menschen klasse ist dann ein panda
nach seinen vier beinen dem fell und so
weiter werden eine ki vielleicht auf
einige für uns menschen seltsame und
ziemlich willkürliche muster in den
pixeln des bildes fokussiert ohne einen
klaren bezug zum eigentlich und objekt
herzustellen
und genau das können wir nutzen um die
calle auszudrücken
dabei ist es natürlich mehr als sicher
anzunehmen dass aktuelle selbst man
autos nicht auf diese stoppschilder
hereinfahren würde sie werden mit
millionen von stopp-schildern unter
verschiedenen umständen lichtbedingungen
und so weiter trainiert und auch
explizit mit version training das heißt
die werden getestet und trainiert mit
solchen modell nun kleine störungen in
den bildern ist dennoch ist es
wahrscheinlich nicht sicher anzunehmen
dass angriffe wie diese niemals
funktionieren werden die bei
traditioneller software müssen wir
unsere algorithmen ständig testen und
verbessern um die beste sicherheit zu
erreichen
insbesondere wenn computer
entscheidungen treffen die sich
unmittelbar auf unser leben auswirkungen
und denken sie an die einheit denkt an
die einheit über köln
verschiedenen denken zurück es gibt
nicht eine böswillige karrieren bürger
in computer über die wir die kontrolle
verloren haben und wer uns versucht
absichtlich zuletzt um das heutige thema
abzuschließen wollen wir es noch ein
paar beispiele anschauen
die unsere gesellschaft schon heute
beeinflusst oder in naher zeit
beeinflussen wird
wir haben in den vergangen wochen viel
darüber gelernt wozu kann die heute
fähig ist kann bis zu einem gewissen
grad nachrichten artikel zu bestimmten
themen zb sport 1 und kann die
kampfsport auch live ticker allein auf
der grundlage aktueller statistiken wie
ballbesitz und so weiter wie kann eine
fertigungs arbeiten besser schneller und
zuverlässiger erledigen als wir menschen
künstliche intelligenz kann sich auch
erfahren und so weiter immer mehr
aufgaben können künstliche intelligenz
automatisiert werden für die bisher
wenn wir uns an die definition von
beginn dieses kurses r in menschlicher
form ich war also ja künstliche
intelligenz und im allgemeinen die
digitale transformation verändert unsere
art zu arbeiten zu kommunizieren und zu
leben aber wir mit diesen kurs gelernt
dass kay uns menschen nicht verdrängen
wird haben gelernt dass sie uns bei
bestimmten aufgaben übertreffen kann
aber nicht mehr als das
das ist ähnlich wie bei einem bagger
einen bagger kann besser graben als
jeder mensch ist jemals können wird aber
auch nicht mehr als das was haben wir
also heute über den einfluss von
künstlicher intelligenz gelernt jetzt wo
wir die ideen und prinzipien verstanden
haben wir haben gesehen dass software
und künstliche intelligenz keine moral
oder ethik haben können aber keine
diskriminierung oder ausgefuchster sie
ist nicht automatisch wehrer
transparenter oder sicherer als unsere
menschlichen entscheidungen wenn die
systeme für aufgaben mit
gesellschaftlicher relevanz verwenden
die sich auf unsere gesundheit unser
leben und so weiter auswirken müssen wir
dinge wie verzerrte daten
berücksichtigen die zur diskriminierung
führen
und wir müssen maßnahmen ergreifen und
die entscheidung von ki system erklärbar
zu machen und crm-systeme robust zu
gestalten das sind mehrheitlich
algorithmische probleme die gelöst
werden können ganz viele der
herausforderungen vor denen wir im
kontext von künstliche intelligenz
stehen unterscheiden sich dabei gar
nicht so sehr von den herausforderungen
denen wir bei traditioneller software
für ähnliche anwendungsfälle begegnen
solche software muss gründlich getestet
werden um sicherzustellen dass sie auch
wie beabsichtigt funktioniert und wenn
es um diskussionen darüber geht wo genau
hier angewendet werden soll und wo nicht
ist es am ende dasselbe wie beim wetter
die menschen nun können sie auf einem
mehr oder weniger ethische weisung in
diesem kurs haben wir die grundlegenden
prinzipien und die ideen der künstlichen
intelligenz kennengelernt
dadurch sind wir in der lage
möglichkeiten und grenzen von
künstlicher intelligenz einzuschätzen
und den einfluss von ki system auf
unserer gesellschaft aktiv mit wir
hoffen du hast ein besseres verständnis
über künstliche intelligenz symbolische
ansätze maschinellen lernverfahren
neuronale netze ob maschinen lenken
können oder auch den einfluss von ko auf
unser tägliches leben und unsere
gesellschaft bekommen wenn du mehr zum
thema erfahren will ist empfehlen wir
die einerseits die wie geht s weiter
abschnitt in den erweiterten
kursmaterial und andererseits schau doch
auch computer die passion punkt de
vorbei dort findest du viele weitere
und wenn du eine lehrkraft oder
anderweitigen bildungssektor tätig bist
haben wir noch ein extra video genau für
deine anforderungen die kann nicht
künstlich intelligenz unterrichten
vorbereitet in jedem fall
vielen dank dass du dich mit uns auf
diese reise durch die welt der
künstlichen intelligenz eingelassen hass
und wir hoffentlich bald auf unserer
nächsten reise durch die faszinierende
welt der informatik zu sehen
浏览更多相关视频
Künstliche Intelligenz: Unsere neue Superkraft? | Idee 3D | ARTE
Wie realistisch ist Ex Machina?
Künstliche Intelligenz – die neue Generation I Prof. Dr. Peter Buxmann I Keynote
Künstliche Intelligenz einfach erklärt (explainity® Erklärvideo) (2023)
Aerospace & AI - Airbus’ responsible and human-centric approach to AI | #aidatasummit24
Clip und klar! – Was ist Künstliche Intelligenz (KI)? | Kindervideos | SRF Kids
5.0 / 5 (0 votes)