¿Cómo discrimina la inteligencia artificial? ¿Quienes son sus víctimas?

DW Español
7 Apr 202114:17

Summary

TLDREl video explora cómo la inteligencia artificial puede reflejar y perpetuar el racismo y el sexismo, dado que aprende de los datos proporcionados por humanos. Se discuten casos en los que el software de reconocimiento facial ha fallado al identificar objetos y rostro de personas de diferentes etnias, y cómo los algoritmos, desarrollados y testeados principalmente por hombres blancos, pueden tener un trato discriminatorio hacia personas de otros colores de piel. Además, se menciona el uso de la IA en China para identificar y perseguir a la minoría uigur, y el uso de la 'policía predictiva' en Estados Unidos, que ha sido cuestionada por su inexactitud y potencial para la discriminación. El video subraya la necesidad de controles éticos y la responsabilidad humana en la creación de tecnología inclusiva.

Takeaways

  • 🤖 La inteligencia artificial (IA) puede ser racista y sexista debido a la discriminación en la tecnología, lo que se debe a que aprende y se basa en los datos proporcionados por humanos.
  • 👁️ Los sistemas de reconocimiento facial pueden interpretar de manera diferente a personas de diferentes colores de piel, lo que refleja un sesgo inherente en la tecnología.
  • 📈 La precisión de las aplicaciones de IA depende de los datos iniciales proporcionados, y estos datos a menudo reflejan las visiones y prejuicios humanos.
  • 🌐 La mayoría de los algoritmos de IA fueron desarrollados y testeados por hombres blancos, lo que puede llevar a un trato discriminatorio hacia personas de otros orígenes étnicos.
  • 📸 Los equipos de filmación y cámaras, construidos con el hombre blanco en foco, pueden no ser efectivos para detectar a personas de otros colores de piel, lo que afecta la precisión de la IA.
  • 🚫 En China, la IA se utiliza para identificar grupos étnicos específicos, lo que plantea cuestiones éticas y preocupaciones sobre la privacidad y la libertad civil.
  • 🔍 La IA se está utilizando cada vez más en el ámbito policial, como en la 'policía predictiva', para predecir y clasificar a las personas según su probabilidad de cometer crímenes.
  • 🚔 Los sistemas de IA pueden tener un impacto negativo en la sociedad, siendo capaces de ser sexistas, racistas e injustos, y afectar a las personas más vulnerables.
  • 💡 La inclusión y la diversidad en los datos de entrenamiento son cruciales para mejorar la precisión y la equidad de los sistemas de IA.
  • 🌐 La tecnología de IA no es infalible y requiere de controles éticos adicionales para evitar la perpetuación de prejuicios y la discriminación.

Q & A

  • ¿Cuál es el problema principal mencionado en el guion sobre la inteligencia artificial?

    -El problema principal es que la inteligencia artificial puede ser racista y sexista debido a la discriminación en la tecnología, lo que se debe a que los algoritmos aprenden de los datos proporcionados por humanos y estos pueden reflejar prejuicios.

  • ¿Cómo afecta la inteligencia artificial a las minorías según el guion?

    -La inteligencia artificial afecta negativamente a las minorías, ya que los sistemas de reconocimiento facial y otros algoritmos pueden tener problemas para identificar correctamente a personas con colores de piel distintos al blanco, lo que puede llevar a tratos discriminatorios.

  • ¿Qué ejemplo se menciona en el guion sobre cómo la inteligencia artificial puede ser racista?

    -Se menciona un ejemplo donde Google Vision Cloud interpretó un termómetro infrarrojo como prismático en una mano blanca y como una pistola en una mano negra, mostrando una interpretación discriminatoria.

  • ¿Qué rol juegan los datos en la formación de la inteligencia artificial según el guion?

    -Los datos tienen un papel crucial, ya que la precisión de una aplicación de inteligencia artificial depende de los datos iniciales proporcionados por los humanos. Si estos datos son sesgos, la IA también lo será.

  • ¿Por qué pueden fallar los sistemas de inteligencia artificial en función del color de la piel según el guion?

    -Los sistemas pueden fallar porque la mayoría de los algoritmos fueron desarrollados y testeados por hombres blancos, lo que prevalece su visión del mundo y crea un trato discriminatorio hacia personas de diferentes colores de piel.

  • ¿Qué implicaciones tiene el uso de la inteligencia artificial en la identificación de grupos étnicos, como se menciona en el guion?

    -El uso de la inteligencia artificial para identificar grupos étnicos puede llevar a la violación de derechos humanos y libertades civiles, como se ejemplifica con el uso de tecnologías de reconocimiento facial en China para identificar y perseguir a la minoría uigur.

  • ¿Cómo se utiliza la inteligencia artificial en la prevención del crimen, según el guion?

    -La inteligencia artificial se utiliza en la prevención del crimen a través de la policía predictiva, que utiliza algoritmos para predecir dónde y cuándo es más probable que se cometa un delito, así como para evaluar el riesgo de delitos en una ciudad.

  • ¿Qué problemas surgen con la policía predictiva según el guion?

    -La policía predictiva puede tener problemas como la falta de precisión en las predicciones debido a la calidad y cantidad deficientes de los datos policiales, lo que puede llevar a detenciones arbitrarias y demandas a organismos del estado.

  • ¿Cuál es la perspectiva de los investigadores sobre la justicia y la igualdad en la inteligencia artificial?

    -Los investigadores ven la inteligencia artificial como un reflejo de sociedades injustas y desiguales, y consideran que los sistemas de IA no son infalibles y deben pasar por controles éticos antes de ser implementados, ya que pueden ser destructivos para una buena sociedad si no se abordan sus sesgos.

  • ¿Cómo se sugiere abordar el problema de la discriminación en la inteligencia artificial en el guion?

    -Se sugiere que es necesario tener una discusión de base sobre la inclusión y la discriminación, y cambiar no solo los algoritmos sino también los aspectos básicos como el hardware y las tecnologías de calibración, para garantizar una representación más equitativa.

Outlines

00:00

🤖 Discriminación en la inteligencia artificial

Este párrafo explora cómo la inteligencia artificial (IA) puede reflejar y perpetuar la discriminación, tanto a nivel racial como de género. Se menciona que la IA aprende de los datos proporcionados por humanos y que estos datos pueden estar teñidos de prejuicios. Se ilustra con un ejemplo de software de reconocimiento de imágenes que interpreta de manera diferente objetos sostenidos por manos de diferentes colores de piel. Además, se discute cómo la IA puede afectar negativamente a las minorías, como se evidencia en el documental 'Coudet Vayas', donde se muestra que ciertos sistemas de IA tienen dificultades para reconocer rostros de personas de razas diferentes. Se argumenta que la mayoría de los algoritmos de IA fueron desarrollados y probados por hombres blancos, lo que puede llevar a una visión sesgada del mundo y a la discriminación hacia personas de diferentes razas.

05:01

🚨 Usos controvertidos de la IA en la seguridad y vigilancia

Este párrafo se enfoca en el uso de la IA en contextos de seguridad y vigilancia, particularmente en China, donde se ha implementado para identificar a miembros de la minoría uigur. Se menciona la existencia de un software de reconocimiento facial que integra información de smartphones y cámaras de vigilancia para identificar a individuos sospechosos. Además, se discute el uso de la IA en la policía predictiva, que utiliza algoritmos para predecir delitos basándose en datos geográficos y personales. Se cuestiona la fiabilidad de estos sistemas, ya que pueden tener un alto error en la identificación de ciertos grupos étnicos y cómo esto puede llevar a consecuencias graves, como detenciones arbitrarias y demandas a organismos estatales.

10:03

🔍 Impacto social de la IA y la importancia de la ética

El tercer párrafo aborda el impacto social de la IA y la necesidad de controles éticos en su desarrollo. Se destaca que la IA puede ser destructiva y reflejar prejuicios y racismo, lo que es un reflejo de sociedades desiguales. Se menciona un incidente con un robot de chat de Microsoft que se volvió ofensivo en Twitter debido a la influencia de datos sesgados. Además, se discute cómo la IA puede afectar a la vida cotidiana de las personas, como en el caso de la toma de decisiones sobre créditos, empleos o vivienda, basadas en algoritmos que pueden ser discriminatorios. Se enfatiza la importancia de que los datos de entrenamiento sean diversos y representativos para evitar la perpetuación de la discriminación y se sugiere que la responsabilidad de la justicia social no debe recaer solo en la tecnología, sino en las acciones de los humanos que la desarrollan y utilizan.

Mindmap

Keywords

💡Integridad artificial

La inteligencia artificial (IA) es el campo de la informática que se dedica al diseño de máquinas o programas que imitan la funcionalidad cognitiva que los seres humanos asociamos con la mente, como el aprendizaje, el razonamiento, la percepción, el lenguaje natural o la resolución de problemas. En el guion, se discute cómo la IA puede ser racista y sexista debido a la discriminación en la tecnología, ya que los algoritmos aprenden de los datos proporcionados por humanos y pueden reflejar prejuicios existentes.

💡Discriminación

La discriminación es el trato desigual y desfavorable hacia un individuo o grupo basado en características como la raza, el género, la etnia o la religión. En el video, se menciona que la tecnología de la IA puede reflejar y perpetuar la discriminación al no ser inclusiva en el diseño y el entrenamiento de sus algoritmos, lo que lleva a interpretaciones racistas o sexistas.

💡Algoritmos

Los algoritmos son conjuntos de reglas o procedimientos sistemáticos que se utilizan para resolver problemas o ejecutar tareas. En el contexto del video, los algoritmos de IA son fundamentales porque determinan cómo se procesan los datos y se toman decisiones. Sin una diversidad adecuada en los datos de entrenamiento, estos algoritmos pueden ser sesgos y no representativos de la población real.

💡Datos

Los datos son la información que se utiliza para entrenar y mejorar la IA. El guion destaca la importancia de la selección de datos en la precisión de las aplicaciones de IA. Los datos deben ser diversos y representativos para evitar la discriminación y mejorar la calidad de las decisiones tomadas por la IA.

💡Reconocimiento facial

El reconocimiento facial es una tecnología de IA que analiza y compara imágenes faciales para identificar o verificar a una persona. En el video, se menciona cómo este tipo de tecnología puede ser problemático cuando se utiliza en entornos como China, donde se ha utilizado para identificar y perseguir a minorías étnicas, como los uigures.

💡Hardware

El hardware hace referencia a los componentes físicos de una computadora o dispositivo tecnológico. El guion señala que los equipos de filmación y cámaras, que son parte del hardware, han sido diseñados tradicionalmente con la piel blanca en mente, lo que puede causar problemas en la detección y reconocimiento de personas con otros colores de piel.

💡Inclusión

La inclusión se refiere al proceso de involucrar y considerar a todos los miembros de una sociedad o grupo, independientemente de sus características individuales. En el video, se argumenta que la inclusión es esencial en la creación de tecnologías de IA justas y equitativas, ya que asegura que las perspectivas y necesidades de todos los grupos se tomen en cuenta.

💡Derechos humanos

Los derechos humanos son libertades y privilegios que pertenecen a cada ser humano. El video discute cómo la implementación de la IA en aplicaciones como la vigilancia y la policía predictiva puede infringir estos derechos, especialmente cuando se utiliza de manera sesgada o discriminatoria.

💡Policía predictiva

La policía predictiva es el uso de algoritmos y análisis de datos para predecir y prevenir delitos. Aunque puede parecer una herramienta útil, el video señala sus problemas éticos y la posibilidad de que reflejen y perpetúen prejuicios y racismo, lo que lleva a detenciones arbitrarias y abusos de poder.

💡Etica

La ética se refiere a los principios morales que guían las acciones y decisiones de las personas. En el contexto del video, la ética es crucial en el desarrollo y uso de la IA para asegurar que las tecnologías no causen daño y sean justas y equitativas. Se hace un llamado a la necesidad de controles éticos en la IA para prevenir su uso destructivo.

Highlights

La inteligencia artificial puede ser racista y sexista debido a la discriminación en la tecnología.

La precisión de una aplicación de IA depende de los datos iniciales proporcionados por humanos.

Un error de reconocimiento de imágenes por parte de Google Vision Cloud refleja la discriminación racial en la tecnología.

Los sistemas de IA afectan especialmente a las minorías, como se muestra en el documental 'Coudet Vayas'.

La mayoría de los algoritmos de IA fueron desarrollados y testeados por hombres blancos, lo que crea un trato discriminatorio.

Los algoritmos de IA tienen problemas para reconocer rostros con colores de piel distintos al occidental.

La diversidad en los bancos de datos es crucial para mejorar el reconocimiento de la tecnología.

Los equipos de filmación y cámaras fueron construidos con el hombre blanco en foco, lo que afecta la precisión de la IA.

La clave para prevenir interpretaciones discriminatorias en la IA es la inclusión y la discusión sobre discriminación.

En China, la IA se utiliza para identificar grupos étnicos, lo que es inquietante en términos de derechos humanos.

El software de reconocimiento facial chino tiene un porcentaje de aciertos del 70%, lo que implica un alto error en la identificación.

La policía predictiva utiliza algoritmos para predecir posibles riesgos para la seguridad pública.

Los sistemas de reconocimiento facial en EE. UU. tienen más probabilidades de identificar erróneamente a minorías.

La inteligencia artificial puede ser destructiva para una sociedad justa si no se controla éticamente.

Los datos con los que se construyen los sistemas de IA son conservadores y reflejan la realidad de forma sesgada.

Los errores en los algoritmos de IA terminan afectando a la población más vulnerable.

Los sistemas de IA no son infalibles y no deben ser el símbolo de la perfección digital.

Transcripts

play00:00

una mano negra una mano blanca y ambas

play00:03

sostienen el mismo dispositivo pero el

play00:05

software de reconocimiento de imágenes

play00:06

ve cosas muy diferentes en las fotos es

play00:10

racista y sexista la inteligencia

play00:12

artificial porque hay discriminación en

play00:14

esta tecnología ese es nuestro tema de

play00:17

hoy en enlaces yo soy juan sebastián

play00:19

gómez cota sebastián gómez en redes

play00:20

sociales bienvenidos

play00:22

[Música]

play00:30

la inteligencia artificial aprende de

play00:32

manera autónoma y ella misma puede

play00:34

entrenar a otros algoritmos ese es uno

play00:37

de sus grandes talentos para lograrlo

play00:39

necesita enormes cantidades de datos

play00:41

pero los criterios para su selección los

play00:44

construimos nosotros los humanos esta

play00:47

parte es clave porque la precisión de

play00:49

una aplicación de inteligencia

play00:50

artificial depende de los datos

play00:53

iniciales que le suministramos fíjense

play00:55

en las dos imágenes casi idénticas

play00:57

analizadas por el software de

play00:58

reconocimiento de imágenes de google

play01:00

vision cloud la única diferencia es que

play01:03

el color de la piel en una de las fotos

play01:05

fue cambiado después el resultado el

play01:08

objeto de la mano derecha un termómetro

play01:09

infrarrojo fue interpretado por el

play01:12

algoritmo como unos prismáticos un error

play01:15

comprensible pero el mismo objeto en la

play01:17

mano izquierda fue interpretado como una

play01:20

pistola qué pasó ahí esto fue hace ya un

play01:24

buen tiempo y google entretanto ofreció

play01:26

disculpas y eliminó la etiqueta de

play01:28

pistola del programa

play01:31

es esta la solución correcta cómo

play01:33

prevenir las interpretaciones racistas o

play01:36

discriminatorias de un software de

play01:37

reconocimiento los sistemas de

play01:39

inteligencia artificial han afectado

play01:41

especialmente a las minorías negras como

play01:44

lo muestra el documental estadounidense

play01:46

coudet vayas

play01:48

durante mi primer semestre en el lema y

play01:51

trabajé con una aplicación que debía

play01:53

reconocer mi rostro pero solo comenzó a

play01:56

funcionar cuando utilice una máscara

play01:58

blanca me pregunte qué está pasando con

play02:01

las condiciones de luz el ángulo del

play02:03

rostro frente a la cámara o hay algo más

play02:09

joe bull and win y fue una de las

play02:10

primeras personas en descubrir que los

play02:12

sistemas de inteligencia artificial

play02:13

pueden ser racistas su historia fue

play02:15

documentada en el film cobre bayas la

play02:18

película explica por qué estos sistemas

play02:20

pueden fallar en función del color de la

play02:23

piel la mayoría de los algoritmos que se

play02:25

esconden detrás de la inteligencia

play02:26

artificial fueron desarrollados y

play02:28

testeados por hombres blancos

play02:30

prevalece su visión del mundo creando un

play02:33

trato discriminatorio hacia personas

play02:34

diferentes

play02:37

los algoritmos están basados en códigos

play02:39

que han aprendido a identificar

play02:41

principalmente rostros occidentales

play02:45

de ahí que la inteligencia artificial

play02:46

tenga problemas con otros colores de

play02:49

piel

play02:51

[Música]

play02:52

y en mí a cuanta más información haya en

play02:56

los bancos de datos

play02:57

cuanto más diversos sean mejor podrá

play02:59

reconocer la tecnología la diversidad

play03:01

humana pero esta desigualdad tiene otra

play03:06

causa más que empieza incluso antes de

play03:08

que el sistema aprenda los códigos

play03:13

comienza con el hardware los equipos de

play03:15

filmación y las cámaras fueron

play03:17

construidos con el hombre blanco en foco

play03:21

los sensores las calibraciones las

play03:23

tecnologías infrarrojas desarrolladas en

play03:26

las últimas décadas parten de la piel

play03:27

blanca y su reflexión de la luz como

play03:29

base no consideran a seres humanos con

play03:35

otro color de piel que reflejan la luz

play03:37

de otra forma

play03:41

utilizando su afección por eso la

play03:45

experta cree que hay que cambiar otras

play03:46

cosas básicas antes que los algoritmos

play03:50

los indigentes y lo importante es cómo

play03:55

interactuamos con estas tecnologías la

play03:58

clave está en todos nosotros no solo la

play04:00

programación es importante sino cómo

play04:02

interactuamos con el sistema cómo

play04:04

alimentamos esta tecnología y creo que

play04:11

lo que nos falta es una discusión de

play04:12

base sobre la inclusión sobre la

play04:15

discriminación su significado y sus

play04:18

dimensiones

play04:21

también doy bola wing y lucha por

play04:24

replantear a ciertos aspectos de la

play04:26

sociedad ha publicado artículos hablado

play04:28

frente al congreso de los eeuu y ha

play04:30

fundado una asociación que trabaja por

play04:33

la inclusión y la igualdad en los

play04:34

algoritmos

play04:39

en china la inteligencia artificial se

play04:42

utiliza hasta para identificar grupos

play04:44

étnicos los expertos en vigilancia

play04:46

digital de haití bien en eeuu

play04:49

descubrieron entre otras cosas que la

play04:52

multinacional huawei por ejemplo

play04:53

participó en el desarrollo de la llamada

play04:56

alarma we would se supone que este

play04:59

software chino de reconocimiento facial

play05:01

puede identificar en segundos a personas

play05:04

de la minoría musulmana de los uigur es

play05:06

pero a ver si esta tecnología ni

play05:09

siquiera puede relacionar objetos con

play05:11

personas de forma confiable cómo va a

play05:14

identificar una etnia religiosa pues no

play05:16

los chinos tampoco están tan avanzados

play05:19

según las estimaciones el porcentaje de

play05:21

aciertos es apenas del 70% eso significa

play05:25

que el software se equivoca en casi un

play05:27

tercio de los casos y sin embargo se

play05:30

utiliza en toda china

play05:33

el sistema de cámaras testeado por

play05:35

huawei está capacitado para reconocer el

play05:38

rostro de personas de determinadas

play05:39

etnias con la ayuda de la inteligencia

play05:41

artificial los sistemas no sólo están

play05:44

entrenados para identificar edad o sexo

play05:46

del sujeto sino también su procedencia

play05:49

étnica el software ha sido entrenado con

play05:52

datos de rostros de wii gures y know

play05:54

your es para que pueda distinguir

play05:56

correctamente los distintos indicadores

play05:58

fisonómicos su aplicación en china

play06:00

resulta inquietante el hecho de que la

play06:02

inteligencia artificial identifique a

play06:04

miembros de la minoría uigur podría

play06:06

activar la llamada alarma uigur y acabar

play06:09

en manos de la policía

play06:11

[Música]

play06:13

las autoridades chinas construyeron un

play06:15

sistema de observación y control de wii

play06:17

fures en la provincia noroccidental de

play06:19

xinjiang cientos de miles son re

play06:22

educados en prisiones lo que fue muy

play06:24

criticado por occidente

play06:27

oficialmente las empresas chinas se

play06:29

oponen al uso comercial de este software

play06:32

piloto sin embargo el gigante alibaba ya

play06:35

ha admitido que sus expertos han

play06:37

desarrollado versiones del llamado

play06:39

software racista y lo han utilizado en

play06:42

la práctica incluso han hecho tutoriales

play06:45

para utilizar la función de búsqueda

play06:47

específica de musulmanes uigures esta

play06:50

versión del software de reconocimiento

play06:51

facial integra información de

play06:53

smartphones y cámaras de vigilancia y

play06:56

permite a los usuarios chinos enviar

play06:58

imágenes para identificarlas como

play07:00

sospechosas

play07:01

de zerbi gures según los expertos no hay

play07:04

nada mejor que la información de los

play07:06

propios usuarios para afinar el ojo

play07:09

racial de un software de reconocimiento

play07:11

facial que miedo herramientas como la

play07:15

alerta o igor demuestran que el uso

play07:17

policivo de la inteligencia artificial

play07:18

es ya una cuestión de derechos humanos y

play07:21

libertades civiles nos lo explica karen

play07:24

jong experta en inteligencia artificial

play07:28

estos potentes sistemas se utilizan cada

play07:30

vez más para valorar clasificar y

play07:32

organizar a las personas a gran escala y

play07:36

aunque las sociedades occidentales son

play07:38

reacias a usar estos sistemas lo cierto

play07:40

es que hay cada vez más ámbitos sociales

play07:42

en los que se clasifica a las personas

play07:48

sobre todo en el sistema judicial con el

play07:50

fin de predecir mediante algoritmos

play07:51

posibles riesgos para la seguridad

play07:53

pública

play07:56

adic setting es cierto los organismos

play07:59

policiales de todo el mundo están

play08:01

recurriendo a los algoritmos para

play08:03

predecir los delitos el término técnico

play08:05

para esto es policía predictiva o

play08:08

predictivo leasing como funciona aquí

play08:11

les explico

play08:14

existen dos grandes formas de hacer

play08:16

policía predictiva la primera es a

play08:18

partir de los algoritmos de localización

play08:20

éstos desarrollan vínculos entre lugares

play08:23

crímenes y tasas históricas de

play08:26

delincuencia para predecir dónde y

play08:28

cuándo es más probable que se cometa un

play08:30

delito también toman en cuenta

play08:32

condiciones climáticas y eventos

play08:34

especiales manifestaciones conciertos o

play08:38

encuentros deportivos

play08:40

a estos patrones se le suma la llamada

play08:43

teoría de la repetición cercana según la

play08:45

cual un ladrón serial tiende a atacar de

play08:47

nuevo poco tiempo después cerca de la

play08:49

primera escena del crimen

play08:52

la otra forma de policía predictiva se

play08:54

basa en datos sobre las personas la edad

play08:56

el sexo el estado civil o los

play08:59

antecedentes penales para predecir

play09:01

quiénes tienen más probabilidades de

play09:03

participar en futuras actividades

play09:05

delictivas

play09:07

estos datos también pueden ser usados

play09:09

ante la justicia para calcular la

play09:11

probabilidad de que un condenado vuelva

play09:13

a cometer un delito

play09:14

[Aplausos]

play09:16

los algoritmos también pueden calcular

play09:18

el riesgo general de robo en una ciudad

play09:21

red pool es un programa usado en decenas

play09:23

de ciudades norteamericanas con el que

play09:25

la policía planifica hasta la

play09:27

distribución de patrullas y agentes red

play09:30

pool divide la ciudad en bloques y

play09:31

actualiza sus predicciones a lo largo

play09:33

del día como una previsión meteorológica

play09:36

de la delincuencia

play09:37

[Música]

play09:40

pero según la experta lorena jaume para

play09:43

la si esto no es tan sencillo

play09:47

en la investigación criminológica se

play09:50

sabe que en realidad las bases de datos

play09:52

no son suficientes para predecir cómo se

play09:54

moverá una banda organizada porque esa

play09:57

dinámica es mucho más compleja

play10:00

porque había que añadir a las bases de

play10:02

datos los robos de coches por ejemplo en

play10:05

los sistemas que utilizamos no se

play10:06

recogen estos casos en un centro de

play10:12

investigación criminológica de alemania

play10:14

también se pronunció en contra de la

play10:16

policía predictiva

play10:19

después de tres años de investigaciones

play10:21

concluyeron que la calidad y la cantidad

play10:24

de los datos policiales son muy

play10:26

deficientes como para poder generar

play10:27

previsiones válidas sobre futuros

play10:29

crímenes

play10:31

es que varios sistemas de reconocimiento

play10:33

facial en eeuu tienen hasta 100 veces

play10:36

más probabilidades de identificar

play10:38

erróneamente a personas de ascendencia

play10:40

asiática o minorías negras o latinas

play10:43

antes que a los blancos eso es lo que ha

play10:46

descubierto un reciente estudio del

play10:48

mismo gobierno norteamericano esto ya

play10:51

está teniendo serias consecuencias

play10:53

detenciones arbitrarias y claro más

play10:55

demandas a organismos del estado sin

play10:58

embargo su uso se sigue expandiendo cada

play11:00

vez más en decenas de países alrededor

play11:02

del mundo para carl isabel is

play11:04

investigadora de ética digital el

play11:07

impacto en la sociedad es grave y la

play11:11

inteligencia artificial puede ser muy

play11:12

destructiva para buena sociedad puede

play11:14

ser sexista racista y extremadamente

play11:16

injusta

play11:18

un ejemplo en 2016 microsoft puso en

play11:21

marcha un robot de chat que se

play11:23

comunicaba de forma autónoma vía twitter

play11:26

sólo dura un día lo tuvieron que

play11:28

desconectar de la red pues sus tweets

play11:30

comenzaron a ser ofensivos hacia los

play11:31

otros usuarios

play11:33

el robot se volvió sexista racista y

play11:36

antisemita porque se desarrollan

play11:39

sistemas de inteligencia artificial tan

play11:40

injustos y con tantas fallas no jim watt

play11:43

sanín y naqim a este fell bagua dos

play11:46

investigadoras y artistas berlinesas

play11:48

estudian esta problemática

play11:52

y los datos con los que se construyen

play11:55

estos sistemas provienen del pasado son

play11:57

sistemas bastante conservadores y lo

play11:59

vemos desde esa perspectiva

play12:03

cuando se utiliza la inteligencia

play12:05

artificial para hacer predicciones o

play12:08

recomendaciones es poco realista esperar

play12:12

que se comporte de forma justa e

play12:14

igualitaria si los datos que la

play12:16

constituyen no lo son

play12:18

existe en ese país es esto afecta a

play12:21

todos aquellos que según el algoritmo no

play12:23

tienen el color de piel o el sexo

play12:25

correctos o los ingresos mínimos

play12:27

necesarios nadie sabe cuáles son los

play12:29

criterios de decisión

play12:33

tal vez ya seamos víctimas de la

play12:35

inteligencia artificial sin saberlo tal

play12:39

vez te rechazaron a que el crédito no

play12:40

tienes un trabajo o un apartamento por

play12:43

culpa de un algoritmo puede que estemos

play12:46

siendo discriminados sin saberlo

play12:49

construir un algoritmo de inteligencia

play12:51

artificial es un poco como hornear un

play12:53

pastel si desde el principio mezclamos

play12:56

mal los ingredientes no va a ser posible

play12:58

arreglarlo después y a ver quién se lo

play13:01

come en la inteligencia artificial si

play13:03

los datos de entrenamiento del algoritmo

play13:05

no están bien elegidos nada funcionará

play13:08

bien después no importa cuánta

play13:10

información adicional le metamos y las

play13:13

víctimas de esos errores terminan siendo

play13:14

la población más vulnerable esto es

play13:17

culpa de las personas no de la

play13:19

tecnología de la inteligencia artificial

play13:21

no hará el mundo más justo eso lo

play13:23

debemos hacer los humanos fuerte pero

play13:26

cierto está claro que los sistemas de

play13:28

inteligencia artificial no son

play13:30

infalibles ni deben ser el símbolo de la

play13:32

perfección digital y si realmente nos

play13:36

quieren vender esta tecnología como él

play13:38

pues tiene que pasar primero por muchos

play13:41

más controles éticos de otro lado que

play13:44

las imágenes catalogadas y la predicción

play13:46

del crimen repliquen prejuicios y

play13:48

racismo es también el reflejo de

play13:50

sociedades injustas y profundamente

play13:52

desiguales eso no lo puede cambiar un

play13:55

algoritmo de inteligencia artificial

play13:57

esto es todo por hoy en enlaces no

play14:00

olviden suscribirse a nuestro canal de

play14:02

español y seguir nuestra lista de

play14:04

reproducción tecnología y mundo digital

play14:06

nos vemos pronto a oficiarse

play14:09

[Música]

play14:13

ah

Rate This

5.0 / 5 (0 votes)

Связанные теги
Inteligencia ArtificialDiscriminaciónRacismoSexismoTecnologíaPrivacidadDerechos HumanosEtiquetado FacialPolítica de DatosÉtica Digital
Вам нужно краткое изложение на английском?