Chicas en tecnología: Inteligencia artificial y diversidad
Summary
TLDREl script explora los retos de regular la tecnología en respuesta a eventos sociales significativos, como el asesinato de George Floyd. Se menciona la reacción de Silicon Valley, con grandes empresas como Microsoft, IBM y Amazon adoptando medidas como la renuncia al uso de sistemas de reconocimiento facial por problemas éticos y técnicos. Se destaca la importancia de la diversidad en el desarrollo tecnológico y la necesidad de formación en ética para evitar sesgos en algoritmos de IA, como los que afectan a minorías y mujeres. La discusión resalta la necesidad de regulación en áreas con poca legislación, como Argentina.
Takeaways
- 🌐 El asesinato de George Floyd generó un gran impacto mundial y llevó a la comunidad tecnológica a reflexionar sobre su rol en la inclusión y la ética.
- 💼 Las grandes empresas de Silicon Valley, incluyendo a Microsoft, Amazon y IBM, han tomado medidas significativas en respuesta a los eventos, como la donación a organizaciones de derechos raciales y la revisión de prácticas internas.
- 🔍 La plataforma de desarrollo colaborativo GitHub cambió su terminología, eliminando el término 'master' por 'main', como parte de un esfuerzo para evitar asociaciones con la esclavitud.
- 🤖 IBM anunció la retirada de sus productos de reconocimiento facial, seguido por Amazon y Microsoft, que también limitaron el uso de esta tecnología por cuestiones éticas y técnicas.
- 👥 La ASM, la Asociación Científica y Educativa sobre temas de comunicación de computación, prohibió todos los sistemas de reconocimiento facial por motivos éticos y técnicos.
- 🔎 Los algoritmos de reconocimiento facial han sido criticados por su sesgo racial y su tendencia a generar resultados sesgados hacia minorías como afroamericanos, afrodescendientes, latinos y mujeres.
- 📈 Los algoritmos de inteligencia artificial se entrenan con grandes cantidades de datos, lo que puede resultar en aprendizaje basado en prejuicios y sesgos humanos existentes.
- 👩💻 Un ejemplo mencionado es un sistema de selección de personal de Amazon que, alimentado con datos de búsquedas de currículos, desarrolló una tendencia a descartar currículos de mujeres.
- 🚗 Los sistemas de conducción autónoma también han demostrado sesgos, como un estudio que encontró que las personas negras tenían más probabilidades de ser impactadas por vehículos autónomos.
- 👥 La diversidad en los equipos de desarrollo de tecnología es crucial para abordar cuestiones éticas y prevenir la incorporación de sesgos en la tecnología.
- 📚 Se resalta la importancia de la formación en ética para los profesionales de la tecnología y la necesidad de incluir perspectivas éticas en el desarrollo y la toma de decisiones tecnológicas.
Q & A
¿Qué evento desencadenó una serie de discusiones y acciones en Silicon Valley en relación con la tecnología y la ética?
-El asesinato de George Floyd, que fue filmado y se convirtió en una noticia mundial, generó una respuesta global y en Silicon Valley, las empresas tecnológicas comenzaron a debatir y tomar medidas sobre temas de inclusión y ética en la tecnología.
¿Qué cambio significativo realizó GitHub en su plataforma?
-GitHub decidió dejar de usar la palabra 'master', que significa 'amo' en inglés, y reemplazarla por 'main', que significa 'principal', para evitar términos relacionados con la esclavitud.
¿Qué anunció el CEO de IBM en relación con el reconocimiento facial?
-El CEO de IBM anunció que la empresa retiraría todos sus productos de reconocimiento facial del mercado, un paso significativo hacia la ética y la regulación de la tecnología.
¿Qué medida tomó Amazon en respuesta a la situación del reconocimiento facial?
-Amazon decidió suspender el uso de su sistema de reconocimiento facial para uso policial por un año, lo que demuestra una pausa para evaluar y posiblemente mejorar la tecnología.
¿Qué decisión toman Microsoft y la ASM en relación con el reconocimiento facial?
-Microsoft y la Asociación Científica y Educativa sobre Temas de Computación (ASM) decidieron prohibir todos los sistemas de reconocimiento facial por razones técnicas y éticas.
¿Por qué se prohíben los algoritmos de reconocimiento facial según el discurso?
-Los algoritmos de reconocimiento facial se prohíben porque aún no se conoce exactamente cómo funcionan o están entrenados, y han demostrado sesgos hacia minorías y comunidades afroamericanas y afrodescendientes.
¿Cómo funcionan los algoritmos de inteligencia artificial según el ejemplo del pato?
-Los algoritmos de inteligencia artificial aprenden a través de técnicas de machine learning, mostrando una gran cantidad de ejemplos y permitiendo que la máquina descubra por sí misma las características relevantes para la identificación.
¿Qué problema surgió con el sistema de selección de personal de Amazon basado en IA?
-El sistema de Amazon, alimentado con datos de búsquedas de los últimos diez años, descartaba currículos de mujeres y hombres con palabras asociadas a la mujer, debido a que la máquina había aprendido que no se debía contratar mujeres basándose en esos datos sesgados.
¿Cuál es el problema con los sistemas de IA que toman decisiones basadas en datos históricos?
-Los sistemas de IA que usan datos históricos pueden reflejar y perpetuar los errores y defectos humanos del pasado, incluyendo el racismo y el sexismo, lo que lleva a decisiones futuras sesgadas.
¿Qué estudio menciona el discurso sobre los autos autónomos y su sesgo racial?
-Un estudio mencionado en el discurso demuestra que los autos autónomos tienen más probabilidades de chocar con personas negras que con personas blancas, debido a algo que la IA aprendió durante su entrenamiento.
¿Qué implicaciones tiene la falta de diversidad en las empresas de tecnología en términos de desarrollo de tecnología?
-La falta de diversidad en las empresas de tecnología puede llevar a una representatividad insuficiente en el desarrollo de tecnología, lo que puede resultar en soluciones que no consideran las diferentes características y necesidades de la población.
¿Por qué es importante la ética en la formación técnica de los equipos de tecnología?
-La ética es importante en la formación técnica porque permite que los equipos que generan tecnología y toman decisiones consideren una diversidad de miradas, incluyendo una perspectiva ética que puede ayudar a prevenir el sesgo y promover la equidad en la tecnología.
¿Qué sugiere el discurso sobre la regulación de la tecnología en Argentina?
-El discurso sugiere que Argentina aún tiene mucho por regular en términos de tecnología, y es importante comenzar a pensar en la regulación para asegurar que la tecnología se desarrolle y se implemente de manera ética y equitativa.
Outlines
🌐 Cambios en la tecnología tras el asesinato de George Floyd
El primer párrafo aborda el impacto global del asesinato de George Floyd y cómo la comunidad tecnológica, especialmente en Silicon Valley, respondió con discursos sobre inclusión y donaciones a organizaciones que luchan contra la discriminación racial. Se menciona el cambio significativo en la plataforma de desarrollo GitHub, donde la palabra 'master' fue reemplazada por 'main' para evitar connotaciones de esclavitud. También se discuten las decisiones de IBM, Amazon y Microsoft de retirar o restringir el uso de sus sistemas de reconocimiento facial, motivadas por preocupaciones éticas y técnicas, y se destaca la decisión de la ACM de prohibir estos sistemas por completo. Se señala la falta de conocimiento sobre cómo funcionan estos algoritmos y cómo su sesgo puede afectar a minorías como la comunidad afroamericana, afrodescendientes, latinas y mujeres.
🤖 Sesgo en algoritmos de inteligencia artificial y aprendizaje automático
Este párrafo explora cómo los algoritmos de inteligencia artificial y aprendizaje automático pueden desarrollar sesgos a través de su entrenamiento. Se ilustra con un ejemplo de Amazon, donde un sistema de selección de personal fue alimentado con datos de búsquedas de currículos, resultando en una tendencia a descartar currículos de mujeres. También se menciona un estudio que muestra que los sistemas de reconocimiento facial pueden tener sesgos raciales significativos, afectando negativamente a las personas negras. Se destaca la importancia de la diversidad en los equipos de desarrollo tecnológico y la necesidad de una representatividad más amplia, incluyendo a personas de diferentes etnias y género, para evitar la perpetuación de errores y defectos humanos en la toma de decisiones futuras.
🏢 Diversidad y ética en la tecnología: Retos y oportunidades
El tercer párrafo enfatiza la importancia de la diversidad y la ética en el desarrollo y la implementación de tecnología. Se señala la falta de formación en ética en la educación técnica y la necesidad de incluir perspectivas éticas en los equipos que toman decisiones sobre tecnología. Se menciona la situación en Argentina, donde hay una oportunidad para regular y mejorar en esta área, y se concluye con una reflexión sobre la importancia de la ciencia y la ética en la sociedad contemporánea.
Mindmap
Keywords
💡Regulación tecnológica
💡George Floyd
💡Silicon Valley
💡GitHub
💡Racial bias
💡Inteligencia artificial
💡Aprendizaje automático
💡IBM
💡Amazon
💡Microsoft
💡Diversidad
Highlights
El asesinato de George Floyd generó una respuesta global y impactó a la comunidad tecnológica.
Empresas tecnológicas como IBM, Amazon y Microsoft tomaron medidas significativas en respuesta a la demanda de justicia social.
GitHub decidió dejar de usar la palabra 'master' para evitar asociaciones con la esclavitud.
El reconocimiento facial se cuestiona por su sesgo racial y se retira de varios mercados tecnológicos.
Las organizaciones como la ASM prohíben el uso de sistemas de reconocimiento facial por razones técnicas y éticas.
Los algoritmos de reconocimiento facial han demostrado sesgos hacia minorías y mujeres.
La inteligencia artificial se entrena con datos, lo que puede reflejar y perpetuar los sesgos humanos.
Un ejemplo de Amazon muestra cómo un sistema de selección de personal puede sesgar contra mujeres.
Los autos autónomos también pueden tener sesgos raciales en su aprendizaje.
El sesgo en el aprendizaje de máquinas puede afectar la seguridad y la justicia.
Un sistema de puntuación de riesgo penal basado en fotos mostró sesgo racial al asignar puntos.
Los datos históricos utilizados en el entrenamiento de algoritmos pueden reflejar y perpetuar el racismo sistémico y el sexismo.
La diversidad en las empresas tecnológicas es baja, especialmente en la representación de afroamericanos, latinas y mujeres.
La falta de formación en ética entre los profesionales técnicos es un problema que debe abordarse.
La implementación de tecnología debe considerar una diversidad de perspectivas, incluyendo ética.
La regulación de la tecnología y su impacto en la vida cotidiana es un tema relevante y urgente.
Transcripts
[Música]
como todo bien bien bien tema fascinante
muchas aristas no muchas aristas legales
la regulatoria suman una tecnología
plantea desafíos de cómo regular la no
seguro bueno lo que les vengo a contar
empieza con el asesinato de george floyd
no sé si se enteraron seguramente si fue
una noticia mundial en estados unidos a
fines de mayo se la policía asesinó a
una persona de la comunidad
afroamericana a plena luz del día y
filmada por una persona que pasaba por
ahí los chicos de 7 dando una chica de
17 años así en este acontecimiento bueno
sin duda fue repercutió a nivel mundial
hubo muchas manifestaciones en medio de
una pandemia mundial
y el silicon valley el lugar el foco
donde se genera la mayor cantidad de
tecnología donde están situadas la mayor
cantidad de empresas tecnológicas del
mundo no fue la excepción este
cimbronazo las cabezas de las empresas
grandes salieron a hablar sobre temas
diversos inclusión hubo muchas
donaciones millonarias a organizaciones
que trabajan principalmente términos
raciales pero hubo otros cambios muy
significativos puertas hacia adentro de
cómo se construye tecnología uno de los
cambios que les traje uno de los
ejemplos que les traje de las cosas que
sucedieron fue lo que pasó con git hub y
el hub es la plataforma de desarrollo
colaborativo más popular del mundo es
una empresa que adquirió microsoft hace
muy poco y usa un lenguaje determinado
que ya digamos todas las personas que
trabajamos el desarrollo de tecnología
la conocemos y para nosotros es súper
universal una de las palabras que usan
la palabra master que en inglés
significa amo
y quizás decidió dejar de usar la
palabra master para reemplazarlo por la
palabra main que es que significa
principal que tiene una aplicación muy
similar para dejar de lado los términos
relacionados a la esclavitud
a los que más más nos llevemos la
atención fue lo relaciona a las noticias
relacionadas a la inteligencia
artificial y en particular al
reconocimiento facial que pasó el 8 de
junio
ibm el ceo de ibm salt sacó un
comunicado mandó una carta al congreso
avisando que iba a retirar del mercado
todos sus productos de reconocimiento
facial a los 2 días
amazon fue en la misma dirección y
prohibió suspendió por un año el uso de
su sistema de reconocimiento facial para
uso policial y a esto le siguió
microsoft al día siguiente no conforme
con este cimbronazo que ya los dos nos
quedamos como wow la asm que es la
asociación científica y educativa sobre
temas de comunicadas de computación el
30 de junio prohibió todos los sistemas
de reconocimiento facial por razones
técnicas
y por razones éticas
pero bueno estos algoritmos de
reconocimiento facial los prohíben
porque todavía no se sabe exactamente
cómo funcionan o cómo están entrenados
los algoritmos ahora les voy a contar un
poco más en detalle traje algunos
ejemplos estos algoritmos sigo vemos
vimos muchas investigaciones que han
demostrado que generan sus resultados
están sesgados no también en sejos hacia
algunas minorías hacia personas de la
comunidad afroamericana afrodescendiente
hacia personas latinas o hacia mujeres
vamos a esos ecos ahora
antes me gustaría contarles un poco cómo
se hace se entrenan estos algoritmos de
inteligencia artificial hacia la
inteligencia artificial es la
inteligencia de las máquinas y esas
máquinas de alguna forma tienen que
aprender sí
esto estamos de acuerdo que es un pato
bien tradicionalmente como le
enseñaremos a la máquina para que
aprenda que esto es un pato o sea le
daríamos una serie de instrucciones para
que aprenda a reconocer este pato no se
tiene plumas tiene pico y hermano le
vamos tirando características y la
máquina va como entendiendo si la foto
que le mostramos es un pato o no pero
bueno con plumas y pico probablemente
esto también sea pato para la máquina
como y le enseñamos a la máquina cómo
hacemos para que aprenda en lugar de
decirle de mostrarle de instruir le
cuáles son las características le vamos
a mostrar un montón de pato un montón de
patos y que la mano una sola a través de
técnicas de machine learning o de
aprendizaje de máquina pueda ir
descubriendo solas cuáles son las
características para después poder
identificar es un poco como aprendemos
los humanos no porque a los chicos no le
decís un perro tiene tres cuatro patas
son iguales
y el generalista tal cual tal cual y
después cada uno se hace digamos su
construcción como identificar al perro o
el pato que pasa o sea cuando le
mostramos un montón de cosas de algo va
a aprender en base a lo que le estamos
mostrando
este ejemplo es de un sistema de amazon
amazon había generado un sistema para
hacer más fácil el sistema de selección
de personas que trabajan ahí para eso
había alimentado y había en vez de
mostrarle foto de pato le mostró los
resultados de las búsquedas de los
últimos diez años en consecuencia este
sistema descartaba todos los currículos
que sean de mujeres o todos los
currículos de hombres que tengan la
palabra mujer por ejemplo hay quien haya
participado en alguna actividad de
chicas en tecnología bomba afuera no en
serio porque la máquina había aprendido
entre 5.000 comillas que no había que
contratar mujeres y eso digamos de de
los resultados de esa búsqueda algo
aprendió y en consecuencia se descartaba
a las mujeres una idea más futurista
esto nos encanta hablar de los autos
autónomos o dirigidos o self training en
inglés
bueno un estudio mostró que las personas
negras tienen más probabilidad de ser
chocadas que las personas blancas no
porque en serio pero pero que los autos
que se manejan solos los autos que se
manejan solos y se sabe por qué por algo
que es algo el aprendizaje que algo
aprendió pero bueno no solamente está en
el aprendizaje digamos en cómo aprende
esa máquina sino también en las personas
que desarrollan digamos no hay
suficientes personas que prueben digamos
y no hay suficientes personas que se les
ocurra aprobar con las diferentes
características que tenemos los seres
humanos volvemos un poco a la
prohibición de los de los sistemas de
reconocimiento facial qué pasa en la
aplicación digamos en un ámbito público
en particular cuando lo usa la policía o
cuándo
está en juego juzgar la libertad o la
condena de una persona
este ejemplo es de un sistema que en
base a una foto el reconocible reconocía
fácilmente a una persona y asignaba un
puntaje que tan probable era que esa
persona volverá que si recuerdo que eso
fue un crimen eso no se les ocurre que
es posible
andy se descubrió qué pasó con este
sistema hubo un estudio una denuncia
contra este sistema porque efectivamente
tenía un sesgo racial muy muy grande
la persona de la izquierda había
cometido dos robos a mano armada y un
intento de robo a mano armada y la
persona de la derecha había cometido
solamente cuatro delitos menores y
asimismo el puntaje que le asigna a la
persona de la derecha es mucho más alto
en el mismo estudio comparan digamos
usaron datos viejos fueron datos
históricos y se fijaron sí
las personas éstas habían efectivamente
reincidido no y en este caso fue exacto
el de bajo riesgo volvió a cometer un
crimen y la persona que tuvo el puntaje
más alto no cometió ningún crimen
entonces bueno como les contaba si bien
estos datos osea alimentamos estas estas
bases con datos sumamente sesgados
porque la humanidad tiene sesgos somos
digamos el racismo sistémico existe el
sexismo existe y por ende
estos sistemas están tratando de
predecir el futuro con datos del pasado
o sea estamos usando todos nuestros
errores y nosotros defectos humanos para
tomar decisiones del futuro y sumado a
eso como te contaba en el caso de los de
los autos las empresas de tecnología
tienen muy poca representatividad de
personas de la comunidad afroamericana o
personas latinas personas de otras
etnias incluso muy pocas mujeres estos
gráficos
violetas son las personas las personas
negras y los puntitos verdecitos son
personas latinas como vemos en las
empresas
la proporción de empleados de latinas o
afrodescendientes en relación al total
de empleados y así que bueno por suerte
ahora estamos estamos en una etapa pero
sin duda tenemos que empezar a pensar
que dado que no lo tenemos de que las
personas que estamos formadas desde
roles técnicos no tenemos formación en
ética en la universidad yo no tuve
ninguna ninguna materia de ética
entonces es importante pensar que los
equipos que generan tecnología y los y
los equipos que toman las decisiones de
implementar estas herramientas
tecnológicas es tengan una diversidad de
miradas y entre esa diversidad de
miradas tiene que haber una mirada ética
a alguien que pueda digamos traer otra
perspectiva a la mesa
buenísimo con su bueno importantísimo en
qué bueno hablarlo ahora en argentina
además donde todavía hay mucho por
regular porque hay muy poca regulación
al respecto a buenísimo que también se
regule nuestro programa eso así que
muchísimas gracias
despegar la liga la liga la liga de la
ciencia es alfa destreza rápida la liga
la vida de las ciencias
[Música]
تصفح المزيد من مقاطع الفيديو ذات الصلة
¿Qué dice la legislación Europea sobre la IA? 👾🤔
Los retos de la educación para una formación tecnológica
Estos son los principales beneficios de la Inteligencia Artificial
El Peligro de la Inteligencia Artificial | Tecnología de miedo | Documental
LAS 37 PROFESIONES DEL FUTURO - Vlog de Marc Vidal
Límites éticos para la inteligencia artificial | DW Documental
5.0 / 5 (0 votes)