Chicas en tecnología: Inteligencia artificial y diversidad

La Liga de la Ciencia
9 Aug 202011:23

Summary

TLDREl script explora los retos de regular la tecnología en respuesta a eventos sociales significativos, como el asesinato de George Floyd. Se menciona la reacción de Silicon Valley, con grandes empresas como Microsoft, IBM y Amazon adoptando medidas como la renuncia al uso de sistemas de reconocimiento facial por problemas éticos y técnicos. Se destaca la importancia de la diversidad en el desarrollo tecnológico y la necesidad de formación en ética para evitar sesgos en algoritmos de IA, como los que afectan a minorías y mujeres. La discusión resalta la necesidad de regulación en áreas con poca legislación, como Argentina.

Takeaways

  • 🌐 El asesinato de George Floyd generó un gran impacto mundial y llevó a la comunidad tecnológica a reflexionar sobre su rol en la inclusión y la ética.
  • 💼 Las grandes empresas de Silicon Valley, incluyendo a Microsoft, Amazon y IBM, han tomado medidas significativas en respuesta a los eventos, como la donación a organizaciones de derechos raciales y la revisión de prácticas internas.
  • 🔍 La plataforma de desarrollo colaborativo GitHub cambió su terminología, eliminando el término 'master' por 'main', como parte de un esfuerzo para evitar asociaciones con la esclavitud.
  • 🤖 IBM anunció la retirada de sus productos de reconocimiento facial, seguido por Amazon y Microsoft, que también limitaron el uso de esta tecnología por cuestiones éticas y técnicas.
  • 👥 La ASM, la Asociación Científica y Educativa sobre temas de comunicación de computación, prohibió todos los sistemas de reconocimiento facial por motivos éticos y técnicos.
  • 🔎 Los algoritmos de reconocimiento facial han sido criticados por su sesgo racial y su tendencia a generar resultados sesgados hacia minorías como afroamericanos, afrodescendientes, latinos y mujeres.
  • 📈 Los algoritmos de inteligencia artificial se entrenan con grandes cantidades de datos, lo que puede resultar en aprendizaje basado en prejuicios y sesgos humanos existentes.
  • 👩‍💻 Un ejemplo mencionado es un sistema de selección de personal de Amazon que, alimentado con datos de búsquedas de currículos, desarrolló una tendencia a descartar currículos de mujeres.
  • 🚗 Los sistemas de conducción autónoma también han demostrado sesgos, como un estudio que encontró que las personas negras tenían más probabilidades de ser impactadas por vehículos autónomos.
  • 👥 La diversidad en los equipos de desarrollo de tecnología es crucial para abordar cuestiones éticas y prevenir la incorporación de sesgos en la tecnología.
  • 📚 Se resalta la importancia de la formación en ética para los profesionales de la tecnología y la necesidad de incluir perspectivas éticas en el desarrollo y la toma de decisiones tecnológicas.

Q & A

  • ¿Qué evento desencadenó una serie de discusiones y acciones en Silicon Valley en relación con la tecnología y la ética?

    -El asesinato de George Floyd, que fue filmado y se convirtió en una noticia mundial, generó una respuesta global y en Silicon Valley, las empresas tecnológicas comenzaron a debatir y tomar medidas sobre temas de inclusión y ética en la tecnología.

  • ¿Qué cambio significativo realizó GitHub en su plataforma?

    -GitHub decidió dejar de usar la palabra 'master', que significa 'amo' en inglés, y reemplazarla por 'main', que significa 'principal', para evitar términos relacionados con la esclavitud.

  • ¿Qué anunció el CEO de IBM en relación con el reconocimiento facial?

    -El CEO de IBM anunció que la empresa retiraría todos sus productos de reconocimiento facial del mercado, un paso significativo hacia la ética y la regulación de la tecnología.

  • ¿Qué medida tomó Amazon en respuesta a la situación del reconocimiento facial?

    -Amazon decidió suspender el uso de su sistema de reconocimiento facial para uso policial por un año, lo que demuestra una pausa para evaluar y posiblemente mejorar la tecnología.

  • ¿Qué decisión toman Microsoft y la ASM en relación con el reconocimiento facial?

    -Microsoft y la Asociación Científica y Educativa sobre Temas de Computación (ASM) decidieron prohibir todos los sistemas de reconocimiento facial por razones técnicas y éticas.

  • ¿Por qué se prohíben los algoritmos de reconocimiento facial según el discurso?

    -Los algoritmos de reconocimiento facial se prohíben porque aún no se conoce exactamente cómo funcionan o están entrenados, y han demostrado sesgos hacia minorías y comunidades afroamericanas y afrodescendientes.

  • ¿Cómo funcionan los algoritmos de inteligencia artificial según el ejemplo del pato?

    -Los algoritmos de inteligencia artificial aprenden a través de técnicas de machine learning, mostrando una gran cantidad de ejemplos y permitiendo que la máquina descubra por sí misma las características relevantes para la identificación.

  • ¿Qué problema surgió con el sistema de selección de personal de Amazon basado en IA?

    -El sistema de Amazon, alimentado con datos de búsquedas de los últimos diez años, descartaba currículos de mujeres y hombres con palabras asociadas a la mujer, debido a que la máquina había aprendido que no se debía contratar mujeres basándose en esos datos sesgados.

  • ¿Cuál es el problema con los sistemas de IA que toman decisiones basadas en datos históricos?

    -Los sistemas de IA que usan datos históricos pueden reflejar y perpetuar los errores y defectos humanos del pasado, incluyendo el racismo y el sexismo, lo que lleva a decisiones futuras sesgadas.

  • ¿Qué estudio menciona el discurso sobre los autos autónomos y su sesgo racial?

    -Un estudio mencionado en el discurso demuestra que los autos autónomos tienen más probabilidades de chocar con personas negras que con personas blancas, debido a algo que la IA aprendió durante su entrenamiento.

  • ¿Qué implicaciones tiene la falta de diversidad en las empresas de tecnología en términos de desarrollo de tecnología?

    -La falta de diversidad en las empresas de tecnología puede llevar a una representatividad insuficiente en el desarrollo de tecnología, lo que puede resultar en soluciones que no consideran las diferentes características y necesidades de la población.

  • ¿Por qué es importante la ética en la formación técnica de los equipos de tecnología?

    -La ética es importante en la formación técnica porque permite que los equipos que generan tecnología y toman decisiones consideren una diversidad de miradas, incluyendo una perspectiva ética que puede ayudar a prevenir el sesgo y promover la equidad en la tecnología.

  • ¿Qué sugiere el discurso sobre la regulación de la tecnología en Argentina?

    -El discurso sugiere que Argentina aún tiene mucho por regular en términos de tecnología, y es importante comenzar a pensar en la regulación para asegurar que la tecnología se desarrolle y se implemente de manera ética y equitativa.

Outlines

00:00

🌐 Cambios en la tecnología tras el asesinato de George Floyd

El primer párrafo aborda el impacto global del asesinato de George Floyd y cómo la comunidad tecnológica, especialmente en Silicon Valley, respondió con discursos sobre inclusión y donaciones a organizaciones que luchan contra la discriminación racial. Se menciona el cambio significativo en la plataforma de desarrollo GitHub, donde la palabra 'master' fue reemplazada por 'main' para evitar connotaciones de esclavitud. También se discuten las decisiones de IBM, Amazon y Microsoft de retirar o restringir el uso de sus sistemas de reconocimiento facial, motivadas por preocupaciones éticas y técnicas, y se destaca la decisión de la ACM de prohibir estos sistemas por completo. Se señala la falta de conocimiento sobre cómo funcionan estos algoritmos y cómo su sesgo puede afectar a minorías como la comunidad afroamericana, afrodescendientes, latinas y mujeres.

05:01

🤖 Sesgo en algoritmos de inteligencia artificial y aprendizaje automático

Este párrafo explora cómo los algoritmos de inteligencia artificial y aprendizaje automático pueden desarrollar sesgos a través de su entrenamiento. Se ilustra con un ejemplo de Amazon, donde un sistema de selección de personal fue alimentado con datos de búsquedas de currículos, resultando en una tendencia a descartar currículos de mujeres. También se menciona un estudio que muestra que los sistemas de reconocimiento facial pueden tener sesgos raciales significativos, afectando negativamente a las personas negras. Se destaca la importancia de la diversidad en los equipos de desarrollo tecnológico y la necesidad de una representatividad más amplia, incluyendo a personas de diferentes etnias y género, para evitar la perpetuación de errores y defectos humanos en la toma de decisiones futuras.

10:03

🏢 Diversidad y ética en la tecnología: Retos y oportunidades

El tercer párrafo enfatiza la importancia de la diversidad y la ética en el desarrollo y la implementación de tecnología. Se señala la falta de formación en ética en la educación técnica y la necesidad de incluir perspectivas éticas en los equipos que toman decisiones sobre tecnología. Se menciona la situación en Argentina, donde hay una oportunidad para regular y mejorar en esta área, y se concluye con una reflexión sobre la importancia de la ciencia y la ética en la sociedad contemporánea.

Mindmap

Keywords

💡Regulación tecnológica

La regulación tecnológica se refiere a las leyes y directrices que gobiernan el uso y desarrollo de tecnologías. En el video, se discute cómo la tecnología plantea desafíos reguladores, especialmente en temas de ética y equidad, como se evidencia en la decisión de algunas empresas de retirar productos de reconocimiento facial.

💡George Floyd

George Floyd fue una persona afroamericana que fue asesinada por la policía, lo que provocó protestas y discusiones globales sobre la equidad racial y la justicia social. Este suceso es mencionado en el video como un catalizador de cambios en la sociedad y dentro de las empresas tecnológicas.

💡Silicon Valley

Silicon Valley es el centro mundial de la industria tecnológica, ubicado en California, Estados Unidos. En el video, se menciona como el lugar donde se generan muchas innovaciones tecnológicas y donde las empresas reaccionaron al asesinato de George Floyd con declaraciones y donaciones.

💡GitHub

GitHub es una plataforma de desarrollo colaborativo muy popular, mencionada en el video por su decisión de cambiar el término 'master' por 'main' en su sistema, como un gesto de distanciamiento de la terminología relacionada con la esclavitud.

💡Racial bias

El sesgo racial se refiere a la discriminación o preferencia injustificada hacia un grupo racial específico. En el video, se discute cómo los algoritmos de inteligencia artificial, como el reconocimiento facial, pueden tener sesgos raciales que afectan desproporcionadamente a minorías como la comunidad afroamericana.

💡Inteligencia artificial

La inteligencia artificial (IA) es el campo de la informática que busca crear máquinas capaces de realizar tareas que normalmente requieren inteligencia humana. En el video, se destaca cómo los algoritmos de IA pueden ser sesgados debido a los datos con los que son entrenados.

💡Aprendizaje automático

El aprendizaje automático es una rama de la IA que permite a las máquinas aprender y mejorar a través de la experiencia sin ser explicitamente programadas. En el video, se explica cómo los algoritmos de aprendizaje automático pueden adquirir y reflejar los sesgos de los datos con los que son entrenados.

💡IBM

IBM es una de las compañías tecnológicas mencionadas en el video que decidió retirar sus productos de reconocimiento facial del mercado, lo que refleja una toma de posición ética y social en respuesta a preocupaciones sobre el sesgo racial y otros problemas.

💡Amazon

Amazon es otra gran empresa tecnológica que, según el video, decidió suspender el uso de su sistema de reconocimiento facial por un año para uso policial, lo que indica una reevaluación de cómo la tecnología se utiliza en contextos de seguridad y privacidad.

💡Microsoft

Microsoft es una empresa líder en tecnología que, como se menciona en el video, también se unió a la decisión de reevaluar el uso de tecnologías de reconocimiento facial, lo que demuestra un cambio en la actitud de las grandes empresas hacia la ética en la tecnología.

💡Diversidad

La diversidad se refiere a la variedad en un grupo de personas, incluyendo factores como género, raza, etnia y experiencias. En el video, se argumenta que la diversidad en los equipos de tecnología es crucial para prevenir la introducción de sesgos y para garantizar que las tecnologías desarrolladas sean éticas y equitativas.

Highlights

El asesinato de George Floyd generó una respuesta global y impactó a la comunidad tecnológica.

Empresas tecnológicas como IBM, Amazon y Microsoft tomaron medidas significativas en respuesta a la demanda de justicia social.

GitHub decidió dejar de usar la palabra 'master' para evitar asociaciones con la esclavitud.

El reconocimiento facial se cuestiona por su sesgo racial y se retira de varios mercados tecnológicos.

Las organizaciones como la ASM prohíben el uso de sistemas de reconocimiento facial por razones técnicas y éticas.

Los algoritmos de reconocimiento facial han demostrado sesgos hacia minorías y mujeres.

La inteligencia artificial se entrena con datos, lo que puede reflejar y perpetuar los sesgos humanos.

Un ejemplo de Amazon muestra cómo un sistema de selección de personal puede sesgar contra mujeres.

Los autos autónomos también pueden tener sesgos raciales en su aprendizaje.

El sesgo en el aprendizaje de máquinas puede afectar la seguridad y la justicia.

Un sistema de puntuación de riesgo penal basado en fotos mostró sesgo racial al asignar puntos.

Los datos históricos utilizados en el entrenamiento de algoritmos pueden reflejar y perpetuar el racismo sistémico y el sexismo.

La diversidad en las empresas tecnológicas es baja, especialmente en la representación de afroamericanos, latinas y mujeres.

La falta de formación en ética entre los profesionales técnicos es un problema que debe abordarse.

La implementación de tecnología debe considerar una diversidad de perspectivas, incluyendo ética.

La regulación de la tecnología y su impacto en la vida cotidiana es un tema relevante y urgente.

Transcripts

play00:00

[Música]

play00:06

como todo bien bien bien tema fascinante

play00:09

muchas aristas no muchas aristas legales

play00:12

la regulatoria suman una tecnología

play00:14

plantea desafíos de cómo regular la no

play00:16

seguro bueno lo que les vengo a contar

play00:19

empieza con el asesinato de george floyd

play00:22

no sé si se enteraron seguramente si fue

play00:25

una noticia mundial en estados unidos a

play00:27

fines de mayo se la policía asesinó a

play00:30

una persona de la comunidad

play00:32

afroamericana a plena luz del día y

play00:33

filmada por una persona que pasaba por

play00:37

ahí los chicos de 7 dando una chica de

play00:38

17 años así en este acontecimiento bueno

play00:42

sin duda fue repercutió a nivel mundial

play00:45

hubo muchas manifestaciones en medio de

play00:47

una pandemia mundial

play00:49

y el silicon valley el lugar el foco

play00:53

donde se genera la mayor cantidad de

play00:55

tecnología donde están situadas la mayor

play00:58

cantidad de empresas tecnológicas del

play01:00

mundo no fue la excepción este

play01:01

cimbronazo las cabezas de las empresas

play01:04

grandes salieron a hablar sobre temas

play01:06

diversos inclusión hubo muchas

play01:07

donaciones millonarias a organizaciones

play01:10

que trabajan principalmente términos

play01:12

raciales pero hubo otros cambios muy

play01:14

significativos puertas hacia adentro de

play01:17

cómo se construye tecnología uno de los

play01:21

cambios que les traje uno de los

play01:22

ejemplos que les traje de las cosas que

play01:24

sucedieron fue lo que pasó con git hub y

play01:27

el hub es la plataforma de desarrollo

play01:29

colaborativo más popular del mundo es

play01:32

una empresa que adquirió microsoft hace

play01:34

muy poco y usa un lenguaje determinado

play01:40

que ya digamos todas las personas que

play01:41

trabajamos el desarrollo de tecnología

play01:43

la conocemos y para nosotros es súper

play01:45

universal una de las palabras que usan

play01:47

la palabra master que en inglés

play01:49

significa amo

play01:51

y quizás decidió dejar de usar la

play01:55

palabra master para reemplazarlo por la

play01:56

palabra main que es que significa

play01:59

principal que tiene una aplicación muy

play02:03

similar para dejar de lado los términos

play02:06

relacionados a la esclavitud

play02:09

a los que más más nos llevemos la

play02:11

atención fue lo relaciona a las noticias

play02:13

relacionadas a la inteligencia

play02:15

artificial y en particular al

play02:17

reconocimiento facial que pasó el 8 de

play02:21

junio

play02:21

ibm el ceo de ibm salt sacó un

play02:24

comunicado mandó una carta al congreso

play02:26

avisando que iba a retirar del mercado

play02:28

todos sus productos de reconocimiento

play02:31

facial a los 2 días

play02:33

amazon fue en la misma dirección y

play02:36

prohibió suspendió por un año el uso de

play02:39

su sistema de reconocimiento facial para

play02:41

uso policial y a esto le siguió

play02:43

microsoft al día siguiente no conforme

play02:47

con este cimbronazo que ya los dos nos

play02:49

quedamos como wow la asm que es la

play02:53

asociación científica y educativa sobre

play02:56

temas de comunicadas de computación el

play02:59

30 de junio prohibió todos los sistemas

play03:04

de reconocimiento facial por razones

play03:07

técnicas

play03:08

y por razones éticas

play03:15

pero bueno estos algoritmos de

play03:17

reconocimiento facial los prohíben

play03:19

porque todavía no se sabe exactamente

play03:21

cómo funcionan o cómo están entrenados

play03:23

los algoritmos ahora les voy a contar un

play03:25

poco más en detalle traje algunos

play03:27

ejemplos estos algoritmos sigo vemos

play03:31

vimos muchas investigaciones que han

play03:33

demostrado que generan sus resultados

play03:36

están sesgados no también en sejos hacia

play03:39

algunas minorías hacia personas de la

play03:43

comunidad afroamericana afrodescendiente

play03:46

hacia personas latinas o hacia mujeres

play03:49

vamos a esos ecos ahora

play03:52

antes me gustaría contarles un poco cómo

play03:55

se hace se entrenan estos algoritmos de

play03:58

inteligencia artificial hacia la

play04:00

inteligencia artificial es la

play04:01

inteligencia de las máquinas y esas

play04:03

máquinas de alguna forma tienen que

play04:05

aprender sí

play04:09

esto estamos de acuerdo que es un pato

play04:13

bien tradicionalmente como le

play04:15

enseñaremos a la máquina para que

play04:17

aprenda que esto es un pato o sea le

play04:19

daríamos una serie de instrucciones para

play04:22

que aprenda a reconocer este pato no se

play04:24

tiene plumas tiene pico y hermano le

play04:28

vamos tirando características y la

play04:30

máquina va como entendiendo si la foto

play04:33

que le mostramos es un pato o no pero

play04:36

bueno con plumas y pico probablemente

play04:38

esto también sea pato para la máquina

play04:42

como y le enseñamos a la máquina cómo

play04:47

hacemos para que aprenda en lugar de

play04:50

decirle de mostrarle de instruir le

play04:53

cuáles son las características le vamos

play04:55

a mostrar un montón de pato un montón de

play04:57

patos y que la mano una sola a través de

play05:00

técnicas de machine learning o de

play05:02

aprendizaje de máquina pueda ir

play05:05

descubriendo solas cuáles son las

play05:06

características para después poder

play05:09

identificar es un poco como aprendemos

play05:11

los humanos no porque a los chicos no le

play05:12

decís un perro tiene tres cuatro patas

play05:14

son iguales

play05:16

y el generalista tal cual tal cual y

play05:19

después cada uno se hace digamos su

play05:21

construcción como identificar al perro o

play05:24

el pato que pasa o sea cuando le

play05:27

mostramos un montón de cosas de algo va

play05:30

a aprender en base a lo que le estamos

play05:32

mostrando

play05:33

este ejemplo es de un sistema de amazon

play05:37

amazon había generado un sistema para

play05:42

hacer más fácil el sistema de selección

play05:45

de personas que trabajan ahí para eso

play05:47

había alimentado y había en vez de

play05:50

mostrarle foto de pato le mostró los

play05:52

resultados de las búsquedas de los

play05:54

últimos diez años en consecuencia este

play05:57

sistema descartaba todos los currículos

play06:00

que sean de mujeres o todos los

play06:01

currículos de hombres que tengan la

play06:04

palabra mujer por ejemplo hay quien haya

play06:07

participado en alguna actividad de

play06:09

chicas en tecnología bomba afuera no en

play06:12

serio porque la máquina había aprendido

play06:14

entre 5.000 comillas que no había que

play06:17

contratar mujeres y eso digamos de de

play06:20

los resultados de esa búsqueda algo

play06:23

aprendió y en consecuencia se descartaba

play06:27

a las mujeres una idea más futurista

play06:30

esto nos encanta hablar de los autos

play06:32

autónomos o dirigidos o self training en

play06:36

inglés

play06:38

bueno un estudio mostró que las personas

play06:42

negras tienen más probabilidad de ser

play06:44

chocadas que las personas blancas no

play06:47

porque en serio pero pero que los autos

play06:50

que se manejan solos los autos que se

play06:52

manejan solos y se sabe por qué por algo

play06:55

que es algo el aprendizaje que algo

play06:57

aprendió pero bueno no solamente está en

play07:00

el aprendizaje digamos en cómo aprende

play07:04

esa máquina sino también en las personas

play07:07

que desarrollan digamos no hay

play07:09

suficientes personas que prueben digamos

play07:11

y no hay suficientes personas que se les

play07:13

ocurra aprobar con las diferentes

play07:16

características que tenemos los seres

play07:18

humanos volvemos un poco a la

play07:21

prohibición de los de los sistemas de

play07:25

reconocimiento facial qué pasa en la

play07:28

aplicación digamos en un ámbito público

play07:31

en particular cuando lo usa la policía o

play07:35

cuándo

play07:36

está en juego juzgar la libertad o la

play07:40

condena de una persona

play07:42

este ejemplo es de un sistema que en

play07:47

base a una foto el reconocible reconocía

play07:51

fácilmente a una persona y asignaba un

play07:53

puntaje que tan probable era que esa

play07:56

persona volverá que si recuerdo que eso

play07:59

fue un crimen eso no se les ocurre que

play08:02

es posible

play08:03

andy se descubrió qué pasó con este

play08:06

sistema hubo un estudio una denuncia

play08:10

contra este sistema porque efectivamente

play08:12

tenía un sesgo racial muy muy grande

play08:16

la persona de la izquierda había

play08:19

cometido dos robos a mano armada y un

play08:22

intento de robo a mano armada y la

play08:24

persona de la derecha había cometido

play08:26

solamente cuatro delitos menores y

play08:30

asimismo el puntaje que le asigna a la

play08:35

persona de la derecha es mucho más alto

play08:37

en el mismo estudio comparan digamos

play08:40

usaron datos viejos fueron datos

play08:43

históricos y se fijaron sí

play08:46

las personas éstas habían efectivamente

play08:48

reincidido no y en este caso fue exacto

play08:53

el de bajo riesgo volvió a cometer un

play08:55

crimen y la persona que tuvo el puntaje

play08:58

más alto no cometió ningún crimen

play09:01

entonces bueno como les contaba si bien

play09:06

estos datos osea alimentamos estas estas

play09:09

bases con datos sumamente sesgados

play09:11

porque la humanidad tiene sesgos somos

play09:14

digamos el racismo sistémico existe el

play09:17

sexismo existe y por ende

play09:21

estos sistemas están tratando de

play09:23

predecir el futuro con datos del pasado

play09:26

o sea estamos usando todos nuestros

play09:29

errores y nosotros defectos humanos para

play09:32

tomar decisiones del futuro y sumado a

play09:36

eso como te contaba en el caso de los de

play09:38

los autos las empresas de tecnología

play09:41

tienen muy poca representatividad de

play09:44

personas de la comunidad afroamericana o

play09:46

personas latinas personas de otras

play09:49

etnias incluso muy pocas mujeres estos

play09:52

gráficos

play09:53

violetas son las personas las personas

play09:56

negras y los puntitos verdecitos son

play10:00

personas latinas como vemos en las

play10:02

empresas

play10:04

la proporción de empleados de latinas o

play10:08

afrodescendientes en relación al total

play10:10

de empleados y así que bueno por suerte

play10:14

ahora estamos estamos en una etapa pero

play10:18

sin duda tenemos que empezar a pensar

play10:21

que dado que no lo tenemos de que las

play10:24

personas que estamos formadas desde

play10:27

roles técnicos no tenemos formación en

play10:31

ética en la universidad yo no tuve

play10:33

ninguna ninguna materia de ética

play10:36

entonces es importante pensar que los

play10:39

equipos que generan tecnología y los y

play10:42

los equipos que toman las decisiones de

play10:44

implementar estas herramientas

play10:45

tecnológicas es tengan una diversidad de

play10:48

miradas y entre esa diversidad de

play10:50

miradas tiene que haber una mirada ética

play10:53

a alguien que pueda digamos traer otra

play10:56

perspectiva a la mesa

play10:58

buenísimo con su bueno importantísimo en

play11:00

qué bueno hablarlo ahora en argentina

play11:02

además donde todavía hay mucho por

play11:03

regular porque hay muy poca regulación

play11:05

al respecto a buenísimo que también se

play11:06

regule nuestro programa eso así que

play11:08

muchísimas gracias

play11:11

despegar la liga la liga la liga de la

play11:14

ciencia es alfa destreza rápida la liga

play11:18

la vida de las ciencias

play11:21

[Música]

Rate This

5.0 / 5 (0 votes)

Étiquettes Connexes
TecnologíaÉticaIARegulaciónDiversidadInclusiónEventosGeorge FloydReconocimiento FacialMachine Learning
Besoin d'un résumé en anglais ?