How AI Image Generators Make Bias Worse

LIS - The London Interdisciplinary School
11 Aug 202308:11

Summary

TLDRDas Video skizziert die potenziellen Risiken von voreingenommenen künstlichen Intelligenz-Bildgeneratoren. Es zeigt, wie AI-Erzeugnisse wie das von MidJourney erstellte Beispiel Bilder von Berufstätigen basierend auf einfachen Textanfragen erzeugen können. Die Tendenz dieser Systeme, Geschlechter- und Rassenvorurteile zu verstärken, wird durch Analysen von mehr als 5000 Bildern hervorgehoben, die von Stable erzeugt wurden. Die Diskrepanz zwischen den realen Berufsbildern und den AI-generierten, die höhere Bezahlungsgrade mit helleren Hauttönen und Männlichkeit assoziieren, wird aufgezeigt. Das Phänomen der 'repräsentativen Schäden', das soziale Gruppen herabwürdigt und Stereotypen verstärkt, wird ebenso thematisiert wie die Herausforderung, faire und repräsentative Datensätze zu schaffen. Der Diskurs umfasst auch ethische Fragen und politische Lösungsansätze, um die Auswirkungen von künstlicher Intelligenz zu regulieren und zu kontrollieren, um eine gerechte und inklusivere Gesellschaft zu fördern. Der Fokus liegt auf der Notwendigkeit interdisziplinärer Zusammenarbeit, um komplexe Probleme zu lösen.

Takeaways

  • 🎨 KI-Bildgeneratoren wie MidJourney können einzigartige Bilder basierend auf einfachen Textbeschreibungen erstellen, sind jedoch aufgrund ihrer Trainingsdaten oft voreingenommen.
  • 👨‍💼 Untersuchungen zeigen, dass KI-generierte Bilder höher bezahlte Berufe wie CEOs, Anwälte und Politiker oft mit helleren Hauttönen darstellen, während niedriger bezahlte Jobs dunklere Hauttöne aufweisen.
  • 👩‍⚖️ Es gibt eine geschlechtsspezifische Voreingenommenheit bei der Darstellung von Berufen in KI-Bildern, wobei Männer häufiger in höheren Positionen und Frauen in niedrigeren Positionen abgebildet werden.
  • 📊 Diese Verzerrungen in KI-generierten Bildern werden als 'repräsentative Schäden' bezeichnet, die bestimmte soziale Gruppen herabsetzen und Stereotype verstärken.
  • 🌍 Ein extremes Beispiel für KI-Voreingenommenheit war die Darstellung von Barbies aus verschiedenen Ländern, die Vorurteile und Diskriminierung aufgrund von Hautfarbe und kulturellen Stereotypen förderte.
  • 🔍 Die Qualität der KI-Ergebnisse hängt von der Qualität der Trainingsdatensätze ab. Voreingenommene Daten führen zu voreingenommenen KI-Ergebnissen.
  • 🤖 Melissa Terras betont, dass alle Daten historisch sind und das Produkt von politischen, ökonomischen und sozialen Bedingungen einer bestimmten Zeit und eines bestimmten Ortes sind.
  • ⚖️ Die Herausforderung besteht darin, Fairness und Bias in KI-Systemen neu zu definieren und nicht nur technische Lösungen, sondern auch philosophische Fragen zu berücksichtigen.
  • 🏛️ Selbstregulierung durch Technologieunternehmen reicht oft nicht aus, um Schäden zu verhindern, daher könnte staatliche Regulierung notwendig werden.
  • 🌐 Die Regulierung von dynamischen Technologien wie generativer KI ist komplex, da ihre vollen Auswirkungen oft erst im Laufe der Zeit verstanden werden.

Q & A

  • Was ist das Hauptproblem mit A.I.-Bildgeneratoren, die mit voreingenommenen Daten trainiert wurden?

    -Das Hauptproblem ist, dass diese A.I.-Bildgeneratoren voreingenommene Bilder erzeugen, die dann in den Internet gespeichert und später als Daten für die Training von anderen A.I.-Systemen verwendet werden. Dies führt zu einer gefährlichen Feedbackschleife, die bestehende Vorurteile verbreitet und verstärkt.

  • Wie beeinflussen die Daten, auf denen ein A.I. trainiert wird, die Qualität seiner Ausgaben?

    -Wenn die Daten, auf denen ein A.I. trainiert wird, voreingenommen sind, werden diese Vorurteile vom A.I. übernommen und reproduziert. Es gibt keine neutralen Daten, da alle Daten historische Daten sind und von der Zeit, dem Ort, der politischen, wirtschaftlichen, technischen und sozialen Klima beeinflusst werden.

  • Was ist ein Beispiel für die 'representational harms', die durch A.I.-Systeme verursacht werden können?

    -Ein Beispiel ist die BuzzFeed-Veröffentlichung von A.I.-generierten Barbies aus verschiedenen Ländern. Die lateinamerikanischen Barbies wurden alle mit hellen Hauttönen dargestellt, was eine Form der Diskriminierung namens Colorism propagiert, bei der hellere Hauttöne vor dunkleren bevorzugt werden.

  • Wie können Regierungen bei der Lösung des Problems der voreingenommenen A.I.-Bildgebung helfen?

    -Regierungen könnten Gesetze und Vorschriften erlassen, um die Auswirkungen und Schäden, die generative A.I. auf die Gesellschaft zufügt, zu regulieren. Sie könnten Aufsichtsbehörden einrichten, um Beschwerden über voreingenommene Bilder zu behandeln, und Tech-Unternehmen dazu zwingen, ihre Algorithmen zu aktualisieren oder ihre A.I. auf bessere Datensätze umzuschulen.

  • Was ist die 'Collingridge-Dilemmata'?

    -Die Collingridge-Dilemmata ist ein Konzept, das von dem Soziologen David Collingridge benannt wurde, das die Schwierigkeit aufzeigt, dynamische Technologien wie generative A.I. zu regulieren. Wenn Gesetzgeber zu früh regulieren, können sie ineffektive und irrelevante Richtlinien erlassen. Wenn sie jedoch zu lange warten, bis sie die Auswirkungen und Schäden der Technologie verstehen, kann es zu spät sein, um sie zu kontrollieren.

  • Wie kann eine faire Vertretung von Geschlechtern bei der Generierung von Bildern von Führungskräften erreicht werden?

    -Es gibt keine einfachen Antworten, da es um die philosophischen Fragen geht, wie man Voreingenommenheit und Fairness definiert. Man könnte argumentieren, dass eine faire Vertretung die aktuelle Statistik widerspiegeln sollte, aber andere könnten dies als unfair sehen, da es ungleiche und ungerechte Machtstrukturen aufrechterhält und Frauen davon abhält, für Führungspositionen zu sorgen.

  • Wie kann man sicherstellen, dass A.I.-Systeme nicht nur die in ihren Daten vorliegenden Präjudizien reflektieren, sondern diese auch verstärken?

    -Indem man bessere, repräsentativere Datensätze verwendet, um die Voreingenommenheit zu reduzieren, und auch tiefer gehende philosophische Fragen anspricht, die sich mit der Definition von Voreingenommenheit und Fairness beschäftigen.

  • Was ist das Ziel von LIS: The London Interdisciplinary School?

    -Das Ziel von LIS ist es, Lösungen für die komplexesten Probleme der Welt zu finden, nicht durch eine einzelne Spezialdisziplin, sondern durch die Zusammenarbeit von Experten und Wissen aus den Bereichen Kunst, Wissenschaft und Humanwissenschaften.

  • Welche Rolle spielen die Daten, die für das Training von A.I. verwendet werden, hinsichtlich der Schaffung von Vorurteilen?

    -Die Daten, die für das Training von A.I. verwendet werden, spielen eine entscheidende Rolle bei der Schaffung von Vorurteilen. Wenn diese Daten voreingenommen sind, werden diese Vorurteile vom A.I. übernommen und in den generierten Bildern widergespiegelt.

  • Wie kann man die Qualität der Datensätze verbessern, auf denen A.I.-Systeme trainiert werden?

    -Die Qualität der Datensätze kann verbessert werden, indem mehr Transparenz, Vielfalt und Repräsentanz gefordert wird. Dies könnte durch gesetzgeberische Maßnahmen erreicht werden, die Standards für die Qualität der Trainingsdaten vorgeben.

  • Was ist die Herausforderung bei der Definition von 'Fairness' in Bezug auf die Generierung von Bildern von verschiedenen Berufsbildern?

    -Die Herausforderung besteht darin, eine Balance zwischen der Widerspiegelung der tatsächlichen Statistiken und der Förderung einer ausgewogenen und gerechten Darstellung zu finden. Dies erfordert eine tiefere Reflexion darüber, was als 'fair' angesehen werden sollte und wie man Vorurteile und Stereotypen vermeiden kann.

  • Was ist der Unterschied zwischen historischen Daten und neutralen Daten?

    -Es gibt keine neutralen Daten, da alle Daten historische Daten sind, die von der Zeit, dem Ort, der politischen, wirtschaftlichen, technischen und sozialen Klima beeinflusst werden. Historische Daten sind einfach Faktdaten aus der Vergangenheit, während neutrale Daten eine hypothetische Kategorie sind, die angenommen wird, ohne jegliche Einflüsse oder Präferenzen zu haben.

Outlines

00:00

🤖 Künstliche Intelligenz und ihre Auswirkungen auf die visuelle Wahrnehmung

Dieser Absatz behandelt die Risiken, die mit der Verwendung von künstlicher Intelligenz (KI) verbunden sind, insbesondere wenn KI-Bildgeneratoren wie MidJourney dazu führen können, dass steigende Voreingenommenheiten in Bezug auf Geschlecht, Ethnie, Alter und Hautfarbe verstärkt werden. Es wird erklärt, dass KI-Bildgeneratoren aufgrund ihrer Beliebtheit und Benutzerfreundlichkeit möglicherweise bis zu 90% der Bilder im Internet erzeugen. Die Autoren betonen, dass die von KI präsentierte Realität verzerrt sein kann und dass die von ihnen geschaffenen, verstärkten Vorurteile als 'representational harms' bezeichnet werden. Ein Beispiel hierfür ist die von BuzzFeed veröffentlichte Serie von KI-generierten Barbies, die diskriminierende Vorurteile widerspiegeln. Die Herausforderung besteht darin, die Qualität der Datensätze zu verbessern, auf denen die KI trainiert wurde, da diese oft mit den Vorurteilen ihrer Quellen belastet sind. Der Text fordert zu einer tieferen Reflexion über die Definition von Voreingenommenheit und Fairness auf und stellt die Frage, wie man faire KI-Systeme gestaltet, die nicht nur die aktuelle Realität widerspiegeln, sondern auch eine gerechte Gesellschaft fördern.

05:01

🧐 Die Herausforderungen der Fairness in KI-Systemen

Dieser Absatz konzentriert sich auf die moralischen und ethischen Fragen, die mit der Definition von Fairness und Voreingenommenheit in KI-Systemen verbunden sind. Es wird diskutiert, wie KI-Systeme bei der Darstellung von Berufsbildern wie zum Beispiel bei einem Fortune 500 CEO die tatsächlichen Statistiken widerspiegeln oder ob eine 50/50-Verteilung angebracht wäre, was die Bevölkerungsverteilung widerspiegelt. Der Text stellt auch die Schwierigkeiten dar, die mit der Definition eines fairen Prozesses oder Outcomes verbunden sind und wie dies zu vielen ethischen Initiativen führt, die von allgemeinen, aber leeren Prinzipien wie 'Do the right Thing?' geleitet werden. Es wird betont, dass Selbstregulierung durch Technologieunternehmen möglicherweise nicht ausreicht, um Schäden zu vermeiden, und dass möglicherweise gesetzgeberische Maßnahmen erforderlich sind, um Unternehmen für ihre Auswirkungen auf die Gesellschaft zur Verantwortung zu ziehen. Es wird auch die Collingridge-Dilemma erwähnt, das die Herausforderungen bei der Regulierung dynamischer Technologien wie KI hervorhebt und fragt, ob wir KI in eine Richtung lenken können, die besser den Bedürfnissen der Gesellschaft entspricht und eine gerechteren Welt schafft.

Mindmap

Keywords

💡künstliche Intelligenz

Künstliche Intelligenz (KI) ist ein Begriff, der sich auf Systeme bezieht, die ähnliche Funktionen wie das menschliche Gehirn ausführen können, wie beispielsweise Lernen, Problemlösen und Entscheidungen treffen. Im Video wird KI als zentrales Thema diskutiert, da es um die Auswirkungen von KI-Bildgeneratoren auf unsere visuelle Wahrnehmung geht. Beispiele für die Verwendung von KI im Video sind die von MidJourney erstellten Bilder, die auf einfachen Wortproblemen basieren.

💡Bias

Bias bezeichnet Vorurteile oder systematische Verzerrungen, die in Entscheidungsprozessen auftreten können. Im Kontext des Videos bezieht sich Bias auf die unerwünschten Verzerrungen in KI-Systemen, die zu einer verstärkten Darstellung von Vorurteilen gegenüber Geschlecht, Rasse, Alter und Hautfarbe führen können. Ein Beispiel ist die Tatsache, dass im Video erwähnt wird, dass höherbezahlte Berufe in den von KI generierten Bildern hauptsächlich hellhäutige Personen zeigen.

💡Representational harms

Representational harms sind Schäden, die bestimmte soziale Gruppen durch die Herabsetzung, Stereotypen oder die Verstärkung des Status Quo beeinträchtigen. Im Video werden diese Schäden durch die Verwendung von KI-Systemen veranschaulicht, die zu einer verstärkten Darstellung von Vorurteilen führen, wie etwa die Darstellung hellhäutiger Barbies aus Lateinamerika, die Diskriminierung durch Farbismus fördern.

💡Datensatz

Ein Datensatz ist eine Sammlung von Daten, die für die Analyse oder das Training von KI-Systemen verwendet wird. Im Video wird betont, dass die Qualität der KI-Ausgaben von der Qualität der Datensätze abhängt, auf denen sie trainiert wurden. Wenn Bias in den Datensätzen vorhanden ist, wird dieser von der KI übernommen und reproduziert.

💡Feedbackschleifen

Feedbackschleifen sind Prozesse, bei denen die Ausgaben eines Systems als Eingabe für das gleiche oder ein anderes System verwendet werden, was zu einer Verstärkung der vorhandenen Bias führen kann. Im Video wird dies veranschaulicht, indem gezeigt wird, wie von KI-Bildgeneratoren erstellte, voreingenommene Bilder in den Internet zurück in Datensätze einfließen und somit weitere voreingenommene Bilder erzeugen.

💡Geschlechterdisparität

Geschlechterdisparität bezieht sich auf die Ungleichheit oder Ungleichheit zwischen den Geschlechtern. Im Video wird dies durch die Diskussion der Darstellung von Frauen in Führungspositionen, wie zum Beispiel bei der Generierung eines Bildes eines Fortune 500 CEO, veranschaulicht. Hier wird die Frage gestellt, ob eine faire Geschlechterverteilung eine 50/50-Verteilung sein sollte oder ob sie die aktuellen Statistiken widerspiegeln sollte.

💡Ethische Initiativen

Ethische Initiativen sind Bemühungen, ethische Richtlinien und Verhaltenskodexe für die Entwicklung und Nutzung von Technologien zu schaffen. Im Video wird darauf hingewiesen, dass viele dieser Initiativen von hohen, aber letztlich leeren Prinzipien geleitet werden, die als Virtuoses Zeichen kritisiert werden und nicht zu viel konkreten Handlungsempfehlungen führen.

💡Regulierung

Regulierung bezieht sich auf die Schaffung und Anwendung von Gesetzen und Vorschriften durch Regierungen oder Aufsichtsbehörden, um die Auswirkungen von Technologien auf die Gesellschaft zu kontrollieren. Im Video wird diskutiert, dass Regulierung notwendig sein kann, um die durch generative KI verursachten Darstellungsbedingungen zu beheben, indem zum Beispiel Aufsichtsstellen eingerichtet, Unternehmen zur Aktualisierung ihrer Algorithmen gezwungen oder Standards für die Qualität von Trainingsdaten festgelegt werden.

💡Collingridge-Dilemma

Das Collingridge-Dilemma ist ein Konzept, das die Schwierigkeiten bei der Regulierung dynamischer Technologien wie der generativen KI hervorhebt. Es wird benannt nach dem Soziologen David Collingridge und beschreibt, dass es schwierig ist, Gesetze und Regulierungen für Technologien zu erstellen, deren vollständige Auswirkungen und Konsequenzen erst im Laufe der Zeit verstanden werden. Im Video wird darauf hingewiesen, dass zu früh oder zu spätes Handeln der Gesetzgeber zu unzureichenden oder zu späten Maßnahmen führen kann.

💡Fairness

Fairness bezieht sich auf die Gerechtigkeit oder die Gleichheit in der Behandlung von Menschen oder Gruppen. Im Video wird Fairness in Bezug auf die Darstellung von Menschen in KI-generierten Bildern diskutiert. Die Frage, was eine faire Vertretung in Bildern ausmacht, ist komplex und hängt von der Definition von Bias und Fairness ab. Im Video wird dies durch die Diskussion der Vertretung von Frauen in Führungspositionen oder der Haftlingpopulation illustriert.

💡Interdisziplinärität

Interdisziplinärität bezieht sich auf die Zusammenarbeit oder Integration von Wissen und Methoden aus verschiedenen Disziplinen oder Fachgebieten. Im Video wird betont, dass Lösungen für komplexe Probleme wie die von KI verursachten Darstellungsbedingungen nicht von einer einzigen Disziplin stammen, sondern dass es notwendig ist, Expertise und Wissen aus den Künsten, den Wissenschaften und den Geisteswissenschaften zusammenzubringen.

Highlights

A.I. image generators like MidJourney are becoming increasingly popular due to their impressive results and ease of use.

90% of images on the Internet could be artificially generated within a few years.

Generative A.I. can distort reality by exaggerating harmful biases related to gender, race, age, and skin color.

Higher paying professions are often associated with lighter skin tones in A.I. generated images.

Gender biases are evident, with men predominantly represented in higher income jobs in A.I. generated images.

A.I. systems can create representational harms that degrade certain social groups and reinforce stereotypes.

BuzzFeed's A.I. generated Barbies from different countries demonstrated extreme biases, including colorism.

The quality of A.I. outputs depends on the quality of the datasets they are trained on.

All data is historical and reflects the biases of its time, place, and context.

A.I. image generators can create a vicious feedback loop, amplifying and spreading existing biases.

Resolving A.I. bias involves tackling philosophical questions about defining bias and fairness.

There is a debate on whether A.I. should reflect current gender disparities or aim for demographic parity.

The fairness of A.I. outputs is complex and may require considering intrinsic differences between genders.

Even random distributions can introduce bias, such as binary gender categorizations.

Ethics initiatives often struggle with high-minded principles that lack tangible action.

Government intervention may be necessary to regulate generative A.I. and mitigate societal harms.

Lawmakers face the Collingridge dilemma in timing their regulation of rapidly evolving technologies.

The challenge is to guide generative A.I. towards a path that serves societal needs and promotes a fairer society.

Solutions to complex problems require interdisciplinary collaboration across arts, sciences, and humanities.

Transcripts

play00:00

This is why you should avoid

play00:01

mixing Barbie with biased A.I.

play00:03

image generators.

play00:04

What does a typical prisoner look like?

play00:06

What about a lawyer?

play00:07

A nurse? A drug dealer?

play00:08

What about a fast food worker? A cleaner, a terrorist or a CEO.

play00:13

These are all images

play00:14

created by an artificial intelligence

play00:16

image generator called MidJourney,

play00:18

which creates

play00:19

unique images

play00:20

based off of simple word problems.

play00:22

These A.I.

play00:23

image generators have exploded in popularity

play00:25

thanks to their impressive results

play00:26

and ease of use.

play00:27

within a few years,

play00:28

as much as 90% of the images on

play00:30

the Internet

play00:30

could be artificially generated.

play00:32

Given that generative A.I.

play00:33

will have a huge impact

play00:34

in shaping our visual landscape,

play00:36

it's important

play00:36

to understand

play00:37

that the reality

play00:38

it presents can often be distorted,

play00:40

where harmful biases

play00:41

relating to

play00:41

gender, race, age and skin

play00:43

color can be more exaggerated

play00:45

and more extreme than in the real world.

play00:48

Leonardo Nicoletti and

play00:50

Dina Bass are Bloomberg

play00:51

Technology generated and analyzed

play00:53

more than 5000 images created by Stable

play00:56

They prompted it

play00:57

to generate portraits of workers

play00:58

in different professions

play00:59

and sorted the images

play01:01

according to skin tone and perceived gender.

play01:03

they found that higher paying professions

play01:05

like CEO, lawyer and politician

play01:07

were dominated by lighter skin tones,

play01:09

where subjects with darker

play01:10

skin tones

play01:11

were more commonly associated

play01:13

with lower income jobs

play01:14

like dishwasher,

play01:15

janitor and fast food worker.

play01:17

A similar story emerged

play01:18

when categorizing by gender

play01:20

with higher income jobs

play01:21

such as doctors,

play01:22

CEOs and engineers

play01:23

being predominantly represented by men

play01:26

while professions like cashier,

play01:27

social worker and housekeeper

play01:29

were mostly represented by women.

play01:31

These racial

play01:32

and gender biases were found to be stronger

play01:34

than the reality of what was recorded

play01:36

in the U.S.

play01:36

Bureau of Labor Statistics for instance.

play01:39

Women make up 39% of doctors in the U.S.,

play01:42

but only appeared in 7% of the images.

play01:45

these exaggerated biases

play01:46

that AI systems create are known

play01:48

as representational harms.

play01:50

These are harms which degrade

play01:51

certain social groups

play01:52

reinforcing the status quo

play01:54

or by amplifying stereotypes.

play01:56

A particularly extreme

play01:57

example was created when BuzzFeed

play01:59

published an article of A.I.

play02:01

generated Barbies

play02:02

from different countries around the world.

play02:03

The Barbies from Latin

play02:04

America were all presented as fair skinned,

play02:07

perpetuating a form of discrimination

play02:09

known as colorism,

play02:10

where lighter skin tones

play02:11

are favored over darker ones.

play02:13

The Barbie from Germany was dressed

play02:14

in clothes

play02:15

reminiscent of an SS Nazi uniform,

play02:18

and the Barbie from South

play02:19

Sudan was depicted

play02:20

holding a rifle by her side.

play03:10

is that the

play03:11

quality of the

play03:11

outputs will depend

play03:12

on the quality of the datasets.

play03:15

The millions of labeled images that the

play03:17

AI has been trained on,

play03:18

if there are biases in the dataset,

play03:20

the AI will acquire

play03:21

and replicate those biases

play03:23

But there’s is no such thing.

play03:24

as a neutral dataset.

play03:26

As Melissa Terras puts it,

play03:27

all data is historical data,

play03:29

the product of a time, place,

play03:31

political, economic, technical

play03:33

and social climate.

play03:34

if you are not considering

play03:35

why your data exists

play03:36

and other datasets don't,

play03:38

you are doing data science wrong.

play03:40

The bigger problem is not the A.I.

play03:42

systems simply reflect back

play03:43

the prejudice baked into their datasets.

play03:45

It's that in many instances they feel

play03:48

and exacerbate

play03:48

these biases through feedback loops.

play03:51

for A.I.

play03:51

image generators trained on biased datasets.

play03:54

They will fill the Internet

play03:55

with biased images,

play03:56

which will then be fed back into datasets

play03:58

for other A.I.

play03:59

image generators,

play04:00

that will

play04:00

then create even more biased images

play04:03

and so on

play04:03

and so forth, thus

play04:04

creating a vicious feedback loop

play04:06

which will both spread

play04:07

and intensify existing biases

play04:10

So, how do we stop this from happening?

play04:12

Resolving the problem, goes

play04:13

beyond a technical question

play04:15

of simply using better,

play04:16

more representative datasets to reduce bias.

play04:19

One has to tackle deeper

play04:21

philosophical questions

play04:23

which look at how you define bias

play04:24

and fairness in the first place

play04:26

Take the example of gender disparity

play04:28

when it comes to generating

play04:29

an image of a Fortune 500 CEO.

play04:32

What should a fair gender split look like?

play04:34

Should it accurately reflect

play04:35

the current statistics

play04:36

which are roughly 9 to 1?

play04:38

In one sense,

play04:39

this can be seen as a fair

play04:40

representation of reality.

play04:42

But others might see this as unfair

play04:44

for perpetuating unequal

play04:45

and unjust power structures

play04:47

and for discouraging women

play04:48

from applying for C-suite roles.

play04:50

Perhaps a distribution

play04:51

should be a 50/50 split.

play04:53

this would achieve demographic parity

play04:55

as it matches the gender

play04:56

split of the population.

play04:57

We could consider applying this across

play04:59

all jobs and roles,

play05:00

but this assumes that there are no intrinsic

play05:02

differences between genders.

play05:04

Would it be fair

play05:05

to depict prisoners

play05:06

at a 50/50 split, for example,

play05:08

when men currently

play05:09

make up 93% of the global prison population?

play05:12

Perhaps the only fair distribution

play05:14

is to make the output completely random.

play05:16

But even then,

play05:17

defining the gender category

play05:18

with a binary

play05:19

value has already introduced

play05:21

bias into the system.

play05:22

Clearly, there are no easy answers.

play05:25

The difficulty

play05:25

in defining what a fair process

play05:27

or outcome actually is.

play05:28

Has led to many ethics initiatives

play05:30

being guided by high minded

play05:32

but ultimately vacuous principles

play05:34

like Do the right Thing?

play05:36

these sorts of principles

play05:37

have been criticized as virtue signaling,

play05:39

which haven't led to much

play05:40

in the way of tangible action

play05:42

guiding recommendations.

play05:43

If self-governance by tech

play05:45

companies is not enough

play05:46

to mitigate any harms,

play05:48

we might look to governments

play05:49

to pass laws and regulations.

play05:51

Ultimately, they're the only institutions

play05:53

that can hold companies

play05:54

to account for their harms on society

play05:56

and force them to act.

play05:58

To redress representational harms

play06:00

caused by generative AI.

play06:01

Lawmakers could establish oversight bodies

play06:04

to deal with complaints over biased images.

play06:06

tech companies could be forced

play06:08

to update their algorithms

play06:09

or retrain their eye on better datasets.

play06:12

Regulators could also impose

play06:13

standards on the quality

play06:15

of training datasets,

play06:16

requiring them

play06:17

to be transparent, diverse,

play06:19

and more representative.

play06:20

But whatever laws

play06:21

and regulations are put in place,

play06:22

their timing will be crucial.

play06:24

The Collingridge dilemma

play06:25

named after the sociologist

play06:27

David Collingridge,

play06:28

highlights the difficulty in regulating

play06:31

dynamic technologies like generative AI,

play06:33

whose full effects and consequences

play06:35

are only understood as time goes on.

play06:37

If lawmakers legislate too early,

play06:39

they may come up with ineffective

play06:41

and irrelevant policies,

play06:42

leading to a loss of legitimacy

play06:44

amongst the public

play06:45

and feeding perceptions

play06:46

of out-of-touch bureaucrats

play06:48

dealing with technologies

play06:49

they don't understand.

play07:07

However, if lawmakers wait

play07:08

too long to understand

play07:09

technology's impacts and harms

play07:11

by the time they act,

play07:12

it may be too late for them to control

play07:14

The technology will have been widely adopted

play07:17

and now be too deeply integrated

play07:18

into people's lives

play07:19

for meaningful change to happen.

play07:21

So has Pandora's box already been opened?

play07:25

Or can we guide generative A.I.

play07:27

towards a path that better serves

play07:28

their needs and build a fairer society

play07:30

in the process?

play07:31

As computer scientist

play07:32

and digital activist Dr.

play07:33

Joy Buolamwini puts it,

play07:35

whether A.I will help us

play07:36

reach our aspirations

play07:38

or reinforce

play07:38

unjust inequalities is ultimately up to us.

play07:43

At LIS: The London Interdisciplinary School,

play07:46

we believe that solutions to the world's

play07:48

most complex problems

play07:49

won't come from a single specialism

play07:51

or discipline.

play07:52

We need to bring together

play07:53

experts and knowledge

play07:54

from across the arts, sciences

play07:56

and humanities.

play07:57

If you're interested

play07:58

in connecting the dots, explore

play08:00

a bachelor's and master's degrees

play08:02

as well

play08:02

our professional short courses at LIS.ac.uk

Rate This

5.0 / 5 (0 votes)

Related Tags
KI-BiasGenderdiskriminierungethische KIDatenverzerrungRepräsentationsschadenGesetzgebungTechnologieethikDiversityKI-RegulierungZukunft der KI
Do you need a summary in English?