Qué es la ética de la tecnología y por qué debería importarte | Gemma Galdón-Clavell | TEDxZaragoza

TEDx Talks
7 May 201824:11

Summary

TLDRLa transcripción del video aborda la importancia de la ética en la tecnología, destacando cómo la recopilación de datos y la falta de privacidad afectan a la vida cotidiana, especialmente a los jóvenes. La ponente, Julieta Albarracín, comparte su experiencia en videovigilancia y cómo la tecnología influye en la percepción de la seguridad y el uso del espacio público. Explica que la ética de la tecnología va más allá de la privacidad y debe contemplar la deseabilidad de las innovaciones tecnológicas. Cuestiona la automatización en pasos de frontera, la ciencia ciudadana, la inteligencia artificial y la seguridad, destacando cómo la tecnología puede ser perjudicial si no se considera su impacto en la sociedad. Argumenta que la tecnología debe ser responsable y al servicio de las personas, no viceversa, y hace un llamado a la responsabilidad colectiva para establecer los límites y expectativas de las nuevas innovaciones.

Takeaways

  • 🤔 La ética de la tecnología va más allá de la privacidad de los datos y abarca la responsabilidad social y las implicaciones de las tecnologías en nuestras vidas.
  • 💬 Mark Zuckerberg, CEO de Facebook, fue un ejemplo reciente de cómo las promesas de privacidad en las plataformas tecnológicas a menudo no se cumplen.
  • 📱 Cuando un producto tecnológico no se paga con dinero, los usuarios y sus datos personales a menudo son el producto real que se está vendiendo para fines publicitarios.
  • 🛍️ La recopilación de datos y la falta de privacidad son particularmente problemáticas para los jóvenes, quienes a menudo utilizan espacios públicos para encuentros privados.
  • 📉 La capacidad de olvidar es más difícil en la sociedad digital actual debido a los registros digitales que permanecen y pueden ser recuperados.
  • 👮‍♂️ La automatización en pasos de fronteras, como el uso de máquinas para verificar documentos y huellas digitales, ha cambiado la noción tradicional de lo que constituye una frontera.
  • 🚫 La confianza en la tecnología para tomar decisiones, como en el control de fronteras, puede ser problemática si no hay mecanismos para corregir errores (falsos positivos).
  • 🌐 La 'ciencia ciudadana' puede ser abusiva si no se manejan adecuadamente los datos personales de los contribuyentes, lo que podría llevar a un 'despotismo de los datos'.
  • 🤖 La introducción de tecnología en el lugar de trabajo, como exoesqueletos o sensores, a veces se realiza sin considerar si es necesaria o si mejora la eficiencia, lo que puede resultar en ambientes de trabajo insostenibles.
  • 🚔 Los algoritmos de inteligencia artificial en contextos de seguridad, como en videovigilancia, pueden ser sesgos si no se consideran las diferencias en el comportamiento humano.
  • 🚗 Los coches autónomos representan un ejemplo de cómo la falta de comunicación entre ingenieros y la sociedad puede retrasar la implementación de tecnologías potencialmente salvadoras de vidas.

Q & A

  • ¿Qué es la ética de la tecnología y por qué debería importarnos a nosotros?

    -La ética de la tecnología es un campo que aborda las implicaciones morales y sociales de la tecnología en la sociedad. Debería importarnos porque influye en nuestra privacidad, en cómo utilizamos y entendemos el espacio público, y en la forma en que los datos personales son recolectados y utilizados, lo que puede afectar nuestra vida diaria y futura.

  • ¿Cómo ha cambiado nuestra percepción de la tecnología en los últimos tiempos?

    -Hemos pasado de ser ingenuos y creer que las plataformas tecnológicas nos ofrecían privacidad a darse cuenta de que en realidad somos el producto, y nuestros datos personales son utilizados para fines comerciales y publicitarios.

  • ¿Por qué la ética de la tecnología va más allá de la privacidad de los datos?

    -La ética de la tecnología abarca una amplia gama de cuestiones, incluyendo la forma en que la tecnología impacta en nuestras vidas sociales, la responsabilidad en el desarrollo y uso de tecnologías, y cómo se pueden diseñar para ser más éticas y responsables, beneficiando a la sociedad en su conjunto.

  • ¿Cómo impacta la tecnología en la vida de los jóvenes y por qué es importante considerar esto?

    -La tecnología, al recopilar datos de los jóvenes, puede invadir su privacidad y limitar su capacidad para experimentar la vida sin la carga de una huella digital permanente. Esto es importante porque los jóvenes son la generación que crecerá y se desenvolverá en un mundo cada vez más digitalizado, y es crucial que sus derechos y espacios de privacidad sean protegidos.

  • ¿Cómo ha cambiado la noción de 'olvidar' con la llegada de la tecnología?

    -Tradicionalmente, recordar información ha sido más difícil que olvidar. Sin embargo, con la tecnología actual y la creación de registros digitales, ahora es más difícil olvidar debido a que todo lo que hacemos deja una huella digital que puede ser recuperada, lo que puede afectar negativamente a nuestra vida futura.

  • ¿Por qué la automatización en el paso de fronteras puede tener consecuencias éticas no intencionadas?

    -La automatización en el paso de fronteras, aunque puede ser más eficiente, puede llevar a la desaparición de la frontera física y a un control continuo y extendido. Además, la introducción de la biometría puede causar problemas para aquellos que no desean ser identificados o que huyen de circunstancias peligrosas en sus países de origen.

  • ¿Cómo la confianza en la tecnología puede resultar en problemas si la máquina se equivoca?

    -La confianza ciega en la tecnología puede resultar en problemas si la máquina se equivoca, como en el caso de los falsos positivos en el control de fronteras, ya que actualmente no hay mecanismos o leyes adecuados para lidiar con estas situaciones, dejando a las personas en una posición vulnerable.

  • ¿Por qué la ciencia ciudadana puede ser problemática si no se manejan adecuadamente los datos personales?

    -La ciencia ciudadana puede ser problemática si los datos personales, como fotografías geolocalizadas, se recopilan sin precaución y sin el consentimiento informado de los individuos, lo que puede llevar a la invasión de la privacidad y a la explotación de los contribuyentes.

  • ¿Cómo la inteligencia artificial y la automatización pueden afectar negativamente el futuro del trabajo?

    -La inteligencia artificial y la automatización pueden afectar negativamente el futuro del trabajo al ser implementadas sin considerar si son necesarias o no para mejorar la eficiencia o la rentabilidad. Esto puede llevar a entornos laborales insufribles y a la deshumanización del trabajo.

  • ¿Por qué la tecnología de seguridad, como las cámaras de videovigilancia inteligentes, puede ser perjudicial si no se desarrolla éticamente?

    -La tecnología de seguridad puede ser perjudicial si no se desarrolla éticamente porque puede codificar la normalidad de un grupo específico de personas, como los ingenieros, como la única normalidad, lo que puede llevar a la criminalización de comportamientos perfectamente inocentes pero diferentes a lo esperado.

  • ¿Cómo la ética de la tecnología puede ayudar a mejorar la innovación y su aceptación en la sociedad?

    -La ética de la tecnología puede ayudar a mejorar la innovación y su aceptación en la sociedad al fomentar debates y consensos que determinen si una innovación es deseable y cómo puede ser beneficiosa para la sociedad. Esto incluye la creación de marcos regulatorios y de seguridad que aseguren que la tecnología sea utilizada de manera responsable y en beneficio de todos.

Outlines

00:00

😀 La Ética de la Tecnología y la Privacidad

El primer párrafo introduce la importancia de la ética en la tecnología, destacando la reciente aparición de Mark Zuckerberg ante el congreso de EE. UU. para defender prácticas de privacidad en Facebook que no eran tan privadas como se creía. Se discute la naturaleza insidiosa de los productos tecnológicos 'gratis', donde los usuarios son en realidad el producto alquilado a través de la recopilación de datos personales para fines publicitarios. Además, se menciona el fenómeno de la 'inteligencia' en tecnologías como las smart TVs, que vigilan a sus usuarios y afectan la privacidad. La ética de la tecnología va más allá de la privacidad, abarcando cuestiones fundamentales sobre el impacto social de la tecnología, como se exploró en la tesis doctoral del orador sobre videovigilancia y su efecto en la percepción de inseguridad y el uso del espacio público.

05:02

📚 El Costo del Olvido en la Sociedad Digital

El segundo párrafo aborda cómo la tecnología ha cambiado la capacidad de olvidar en nuestra sociedad digital. Mientras que antiguamente era difícil y costoso guardar información, ahora todo lo que hacemos genera un registro digital que puede ser difícil de borrar. Esto conlleva a una vida de miedo para los jóvenes, cuya huella digital puede afectar su futuro. Se destaca la importancia de considerar las implicaciones a largo plazo de la implementación de tecnologías, como el caso de la automatización en los controles fronterizos, que ha transformado la noción de frontera y ha tenido efectos secundarios inesperados y graves en la población migrante.

10:05

🤖 Confianza en la Tecnología frente a la Humanidad

En el tercer párrafo, se explora la preferencia de la mayoría de las personas por el control automático en lugar del control humano, basada en la creencia de que la tecnología es más eficiente e incluso más justa. Sin embargo, se cuestiona esta confianza cuando la máquina comete un error, dejando a las personas sin los mecanismos o leyes para resolver los problemas causados por los 'falsos positivos'. Se menciona también el trabajo con universidades en el impacto ético de la 'ciencia ciudadana', donde se recopilan datos personales sin precaución, y cómo se ha abordado la falta de participación real de las personas en el proceso.

15:06

🚗 La Arrogancia de la Ingeniería en la Tecnología de Seguridad

Este párrafo se enfoca en los problemas de la 'despotismo de los datos' en la ciencia ciudadana y cómo la falta de gestión adecuada de los datos personales puede ser perjudicial. Se discute la tendencia de los responsables de empresas a tomar malas decisiones al invertir en tecnología sin considerar si es necesaria, lo que lleva a la introducción de tecnologías innecesarias o perjudiciales en el entorno laboral. Además, se destaca cómo los algoritmos de inteligencia artificial en campos como la seguridad y la vigilancia, a menudo reflejan las suposiciones y el 'normal' de los ingenieros que los crearon, lo que puede llevar a la estigmatización y la discriminación de grupos de personas que no se ajustan a esas normas.

20:06

🚦 La Importancia de la Ética en el Desarrollo Tecnológico

El último párrafo aboga por la necesidad de integrar la ética en el desarrollo de la tecnología, comparando la introducción de nuevas tecnologías con la de infraestructuras, que requieren de un estudio de impacto ambiental. Se argumenta que no deberíamos lanzar productos tecnológicos al mercado sin considerar previamente su impacto en la sociedad y si es deseable o no. Se destaca la importancia de la innovación responsable y se refuta la idea de que la ética, la regulación y la prevención son enemigas de la innovación. El orador enfatiza la necesidad de debatir y establecer 'cinturones de seguridad' para las nuevas tecnologías y cómo la ética de la tecnología se dedica a fomentar estos debates y a construir un futuro en el que las tecnologías están diseñadas para mejorar la vida de las personas, poniendo a las personas en el centro del desarrollo tecnológico.

Mindmap

Keywords

💡Ética de la tecnología

La ética de la tecnología se refiere a la consideración de los valores morales y las implicaciones sociales en el desarrollo y el uso de la tecnología. En el video, se destaca como una preocupación fundamental que va más allá de la privacidad y abarca la responsabilidad en la creación y aplicación de tecnologías, como la videovigilancia y la automatización en fronteras.

💡Privacidad

La privacidad es el derecho a la no interferencia en la vida personal y a la protección de la información personal. En el contexto del video, se discute cómo las plataformas tecnológicas como Facebook pueden generar una falsa sensación de privacidad, cuando en realidad recolectan y utilizan datos personales para fines publicitarios.

💡Smart TV

Una Smart TV es un televisor conectado a Internet que permite la recepción de contenido multimedia y la ejecución de aplicaciones. En el video se menciona como un ejemplo de tecnología 'inteligente' que puede llevar a la vigilancia constante, ya que puede estar siempre escuchando y registrando conversaciones privadas.

💡

💡Videovigilancia

La videovigilancia es el uso de cámaras para monitorear públicamente áreas específicas. Se discute en el video cómo impacta en la percepción de inseguridad y cómo puede alterar las dinámicas sociales y la forma en que usamos el espacio público.

💡Automatización de fronteras

La automatización de fronteras se refiere al uso de tecnologías para controlar y supervisar la entrada y salida de personas a través de las fronteras de un país sin la intervención directa de un agente humano. En el video, se explora cómo esta tecnología puede transformar la noción de una frontera física y afectar los derechos de los migrantes.

💡Biometría

La biometría es la ciencia de medir y analizar características individuales del cuerpo humano. En el contexto del video, se utiliza en el control de fronteras para verificar la identidad de las personas a través de huellas dactilares y otros datos biológicos, lo que puede tener implicaciones éticas y de privacidad.

💡Ciencia ciudadana

La ciencia ciudadana es la participación de la comunidad en la recolección y análisis de datos para la investigación científica. Se menciona en el video cómo puede ser abusiva si no se maneja adecuadamente la información personal de los contribuyentes y se destaca la importancia de involucrar al público en el proceso.

💡Inteligencia Artificial (IA)

La IA es la rama de la informática que se ocupa de la creación de sistemas capaces de realizar tareas que generalmente requieren inteligencia humana. En el video, se cuestiona el impacto del avance de la IA en el mundo del trabajo y cómo las decisiones de implementación tecnológica pueden ser impulsadas por la fascinación por la tecnología más que por la necesidad real.

💡Exoesqueletos

Los exoesqueletos son dispositivos mecánicos que se usan para mejorar o ayudar en el movimiento humano. En el video, se critican su implementación en entornos de trabajo donde no son necesarios y pueden generar un ambiente laboral insufrible, reflejando malas decisiones basadas en la tecnología.

💡Coches autónomos

Los coches autónomos son vehículos que pueden operarse sin control directo de un conductor. En el video, se discute cómo la percepción pública de su seguridad puede ser distorsionada por la cobertura mediática y cómo la ingeniería puede ser arrogante al no considerar las preocupaciones sociales en el desarrollo de la tecnología.

💡Responsabilidad social

La responsabilidad social hace referencia a la obligación de las empresas y los individuos de operar de manera que beneficie al público en general y no solo a sus propios intereses. En el video, se argumenta que la tecnología debe ser desarrollada y utilizada con responsabilidad, considerando su impacto en la sociedad y promoviendo la innovación responsable.

Highlights

La ética de la tecnología es importante porque va más allá de la privacidad de los datos.

Facebook ha contribuido a una falta de ingenuidad respecto a la privacidad en las plataformas tecnológicas.

Los usuarios de tecnologías son en realidad el producto, alimentando una máquina de anuncios con sus datos personales.

La tecnología 'smart' espía a los usuarios, como los casos de las smart TVs que monitorean las conversaciones privadas.

La videovigilancia no solo captura dinámicas sociales sino que también las transforma.

La percepción de seguridad y el uso del espacio público están influenciados por la tecnología de videovigilancia.

La ignorancia en la gestión de datos y derechos de los jóvenes es un problema sistemático.

Los jóvenes ven sus espacios de privacidad en el espacio público restringidos por la tecnología.

La memorabilidad de la información digital es un desafío; es más difícil olvidar que recordar.

La huella digital de los jóvenes puede tener un impacto negativo en su futuro.

La automatización en pasos de fronteras ha transformado la noción de lo que constituye una frontera.

Los migrantes enfrentan retos adicionales debido a la introducción de la biometría en los pasos de fronteras.

La confianza en la tecnología y la falta de mecanismos para lidiar con los errores de las máquinas es un problema.

La ciencia ciudadana puede ser abusiva si no se manejan adecuadamente los datos personales de los ciudadanos.

La introducción de tecnología en el ámbito laboral sin una evaluación adecuada de su necesidad y eficacia.

La tecnología de seguridad puede ser problemática si no se toman en cuenta las diferencias en el comportamiento humano.

Los algoritmos predictivos en seguridad no pueden prever el futuro y son arriesgados.

Los coches autónomos representan un ejemplo de cómo la arrogancia en la ingeniería puede llevar a malas decisiones.

La tecnología debe ser puesta al servicio de las personas y no a las personas al servicio de la tecnología.

La ética de la tecnología promueve debates para decidir cómo las tecnologías deben ser integradas en la sociedad.

Transcripts

play00:00

Transcriptor: julieta Albarracín Revisor: Penny Martínez

play00:04

Buenos días.

play00:07

Yo vengo a hablaros de qué es la ética de la tecnología,

play00:11

porque creo humildemente que debería importaros.

play00:15

Y es una buena semana para hacerlo, porque seguramente

play00:19

aún tenemos grabadas en el cerebro las imágenes de Mark zuckerberg,

play00:23

el CEO de Facebook, hablando ante el congreso de EE.UU,

play00:26

justificando un poco lo injustificable, que es que básicamente Facebook

play00:30

nos ha hecho creer que teníamos unos niveles de privacidad en su plataforma

play00:34

que en realidad no tenemos.

play00:37

Pero no solo eso.

play00:38

Por suerte, hoy somos menos ingenuos en relación con la tecnología

play00:41

y ya sabemos que cuando un producto tecnológico no lo pagamos con dinero,

play00:46

en realidad es que nosotros somos el producto,

play00:48

y nuestros datos son los que están alimentando una maquinaria de anuncios,

play00:55

un modelo de negocio basado en la comercialización

play00:57

de datos personales.

play00:59

Hoy también sabemos, somos menos ingenuos,

play01:02

que todo lo "smart", todas las herramientas tecnológicas inteligentes

play01:06

nos espian.

play01:07

Y si no, os reto si tenéis una smart TV

play01:10

a que leáis el manual de instrucciones, donde veréis que os recomiendan

play01:16

no tener conversaciones privadas delante del televisor,

play01:20

si tenéis televisor en vuestra habitación igual tenéis un problema,

play01:24

porque básicamente una smart TV, como todo lo que es smart, nos espía.

play01:29

El producto somos nosotros.

play01:31

Y en tecnología creo que por suerte ya nos hemos acostumbrado a oír

play01:36

a personas que nos hablan del problema de la privacidad de los datos.

play01:40

Pero la ética de la tecnología va mucho más allá de la privacidad.

play01:44

Y permitidme que dé un paso atrás para contaros,

play01:47

para compartir con vosotros

play01:49

cómo empecé yo a darme cuenta de que en tecnología

play01:51

teníamos que mirar todo un universo de cosas

play01:53

que muy poca gente estaba mirando.

play01:56

Yo empecé a hacer mi tesis hace muchísimos años,

play01:59

mi tesis doctoral en videovigilancia.

play02:02

Quería ver cómo las cámaras impactaban sobre cómo utilizamos la ciudad

play02:07

cuáles eran las motivaciones de los diferentes actores

play02:10

para confiar a una solución tecnológica un problema social importantísimo,

play02:14

como es la percepción de inseguridad.

play02:17

Y ahí estaba yo haciendo mi tesis, descubriendo cosas interesantísimas,

play02:21

viendo métricas y como las cámaras eran capaces de capturar

play02:24

dinámicas y expectativas sociales, pero además devolvérnoslas a la sociedad

play02:30

muchas veces con diferencias.

play02:31

La cámara no era solo un actor tecnológico, o solo un cacharro.

play02:35

La cámara intervenía en cómo utilizábamos el espacio público,

play02:38

las expectativas que teníamos los unos sobre los otros,

play02:41

cómo comprendíamos la seguridad.

play02:44

Pero en todo este proceso un buen día se me ocurrió coger el libro,

play02:47

un libro de Richard Sennett, un conocido sociólogo,

play02:52

"El declive del hombre público" y en él se preguntaba,

play02:55

mucho antes de que tuviéramos drones y sensores

play02:59

y cámaras por todas partes,

play03:01

y ojos constantes que nos vigilan en nuestra deriva urbana,

play03:05

él se preguntaba en estas ciudades que estamos creando llenas de ojos,

play03:12

dónde se enamorarían Romeo y Julieta.

play03:15

Y para mí ese fue mi "Aha moment", mi momento de darme cuenta

play03:20

de que mientras yo me focalizaba en dinámicas sociales y métricas

play03:24

y expectativas, me había olvidado de una pregunta importantísima.

play03:28

Esto que estamos haciendo ¿es deseable?

play03:31

¿Queremos que en nuestras ciudades, Romeo y Julieta,

play03:35

hijos de 2 familias enfrentadas, un amor prohibido,

play03:39

queremos crear ciudades donde los jóvenes de familias

play03:43

dispares o enfrentadas no puedan enamorarse?

play03:46

Y sobre todo pensando en la gente joven.

play03:49

Una de las cosas que más me sorprendió en mi trabajo

play03:51

es la ignorancia total que tenemos, ignorancia por decirlo suave.

play03:57

Cómo ignoramos los datos y los derechos de los jóvenes,

play04:01

los jóvenes aparecen en mi trabajo de forma sistemática

play04:03

como un colectivo constantemente maltratado por la recogida de datos.

play04:09

Los jóvenes, porque además no tienen casa propia,

play04:12

tienen una habitación en el mejor de los casos

play04:14

donde ponen candados y carteles de no entrar,

play04:17

mi zona de privacidad, etc.

play04:18

Su zona de privacidad muchas veces es el espacio público,

play04:21

y se lo estábamos quitando.

play04:22

Les estábamos y les estamos quitando a los jóvenes los espacios

play04:26

para darse el primer beso en la clandestinidad, en la privacidad,

play04:29

en la intimidad que necesitan y que merecen,

play04:33

pero no solo para los jóvenes.

play04:35

Se han preguntado dónde se enamorarían Romeo y Julieta

play04:37

y para mí la gran pregunta es

play04:38

todo esto que estamos haciendo en tecnología,

play04:41

ese dinero que estamos invirtiendo.

play04:43

¿Es deseable lo que estamos haciendo a nuestro alrededor?

play04:46

Cosas que ocurren con la tecnología, por ejemplo, vinculado a los jóvenes

play04:50

y a los entornos urbanos, por primera vez en la historia

play04:53

y a consecuencia de la penetración de aparatos tecnológicos,

play04:58

es más caro olvidar que recordar.

play05:02

En toda la historia fue mucho más dificil recordar.

play05:04

Había que escribir pergaminos, después la imprenta.

play05:07

Eso tiene un coste.

play05:08

Ahora mismo lo difícil es poder olvidar, porque todo genera un registro digital.

play05:15

Yo siempre digo que tengo la suerte de tener más de cuarenta años,

play05:19

porque los primeros 20 años de mi vida no los grabó nadie,

play05:23

tengo alguna foto, pero nada más.

play05:27

A los jóvenes de ahora les condenamos a una vida de miedo,

play05:31

por cómo su huella digital puede impactar en su vida en el futuro.

play05:35

Esa foto de esa fiesta, ese comentario en una red social, ese momento

play05:41

que queremos olvidar, ese conflicto, incluso esa condena judicial

play05:46

o ese archivo de una causa.

play05:49

Todo eso las personas que han nacido ya en la sociedad actual,

play05:53

totalmente digitalizada, puede emerger en cualquier momento

play05:56

y arruinarte la vida, tu relación de pareja,

play05:59

la consecución de ese trabajo que tanto deseabas.

play06:03

Por lo tanto, en mi trabajo sobre videovigilancia

play06:06

me di cuenta de que había un montón de preguntas sobre tecnología

play06:09

que no estábamos haciendo, y que era importantísimo que alguien realizara.

play06:15

Desde entonces he tenido la suerte de poder dedicarme a hacer esas preguntas,

play06:18

a explorar cuáles son las preguntas que deberíamos hacer, y cómo debería

play06:22

la tecnología responder a esas preguntas,

play06:25

y entender e incorporar todas esas preocupaciones.

play06:28

Quería detallaros brevemente algunos de los proyectos

play06:30

en los que estuve involucrada, para que veáis cómo se aterriza

play06:33

este tema de la ética de la tecnología.

play06:35

He trabajado mucho tiempo, por ejemplo,

play06:37

en la automatización del paso de fronteras.

play06:39

No sé si habéis ido a algún aeropuerto recientemente,

play06:42

pero veréis que muchas veces quien nos controla

play06:44

el pasaporte ya no es un policía, sino una máquina,

play06:46

metéis vuestro pasaporte, se os hace un reconocimiento de la huella digital,

play06:50

un match biométrico con vuestro documento de identidad,

play06:53

y la máquina decide si podéis pasar o no.

play06:58

Cuando empezamos a trabajar en las "fronteras inteligentes",

play07:02

una de las primeras cosas que nos sorprendió,

play07:04

y que después hemos visto reproducida en muchos otros casos,

play07:08

es que cuando el parlamento europeo

play07:10

empezó a plantearse la automatización del cruce de fronteras,

play07:15

el debate no pasó por el parlamento europeo porque se consideró

play07:18

una enmienda técnica.

play07:20

Cambiar a policías por un proceso de datos era nada más que una enmienda técnica.

play07:26

No afectaba

play07:28

según las personas que inicialmente propusieron ese cambio,

play07:31

a la conceptualización de lo que era la frontera,

play07:35

con lo cual podía ser una enmienda técnica que no requería

play07:37

ningún tipo de control público o político.

play07:41

Para que veáis lo poco técnico que esto es,

play07:46

la incorporación de automatización del paso de fronteras ha hecho,

play07:49

por ejemplo, que la frontera desaparezca.

play07:52

Hoy en día, el cruce de la frontera, la línea en el suelo, el aeropuerto,

play07:59

no es lo importante.

play08:01

Empezamos a viajar y se nos empieza a autorizar el viaje en el momento

play08:05

en el que compramos nuestro billete o solicitamos la visa para viajar.

play08:10

Y nuestro paso de frontera no acaba cuando cruzamos la frontera

play08:13

o cuando llegamos a nuestro destino.

play08:16

Si hemos pedido una visa continúa, porque la validez de nuestra visa

play08:19

es controlada hasta que abandonamos el país,

play08:22

o si no lo abandonamos salta una alarma,

play08:24

para que la policía pueda tomar cartas en el asunto.

play08:27

Con lo cual la introducción de los datos, la automatización de todo este proceso,

play08:33

ha cambiado completamente lo que supone una frontera.

play08:36

La frontera es ahora mismo un espacio larguísimo,

play08:39

para muchas personas un espacio de control continuo.

play08:44

Han pasado otras cosas.

play08:46

con la automatización de fronteras hemos incorporado la biometría

play08:49

como herramienta para comprobar la identidad.

play08:52

¿Qué pasaba en el pasado cuando alguien no quería

play08:55

que su identidad fuera conocida?

play08:57

Quemaba su pasaporte.

play08:59

Cuando alguien no quería ser devuelto a su país,

play09:01

porque consideraba que en ese país podía sufrir consecuencias indeseables,

play09:07

podía quemar su pasaporte y con eso aspirar a quedarse

play09:09

en un espacio y en un limbo legal y jurídico.

play09:14

Hoy, nuestro pasaporte está en nuestros dedos.

play09:19

¿Qué están haciendo los migrantes?

play09:21

Quemarse los dedos, mutilarse,

play09:25

porque es la única forma de evitar que su cuerpo se convierta en su enemigo.

play09:30

Eso que querían pasar como enmienda técnica, está teniendo unas consecuencias

play09:33

brutales sobre los derechos fundamentales de los migrantes.

play09:37

Inicialmente, hoy ya no, alguien quería que no habláramos de eso,

play09:41

que no nos planteáramos cuáles eran las implicaciones de esa decisión.

play09:46

No solo eso, a través de mi trabajo he podido hablar con más de 1500 personas

play09:51

que han utilizado estos sistemas automáticos de control de la identidad

play09:56

en pasos de fronteras.

play09:57

Y es curioso ver como cuando les preguntas a los viajeros de terceros países,

play10:01

no europeos, no personas del espacio del entorno Schengen:

play10:05

¿Qué prefieres, un control policial humano o un control automático?

play10:10

La mayoría te dice: "Prefiero el control automático".

play10:13

Confiamos en la tecnología, creemos que es más eficiente

play10:17

y más justa incluso que la toma de decisiones humana.

play10:21

Pero cuando les preguntábamos a estas mismas personas:

play10:24

¿Y si la máquina se equivoca? ¿Qué crees que va a pasar?

play10:28

Todos coincidían: "Estoy perdido, no voy a poder salir".

play10:33

Cuando hay lo que llamamos un falso positivo,

play10:35

cuando la máquina se equivoca, no tenemos los mecanismos

play10:38

ni las leyes que garanticen que podemos salir del hoyo

play10:41

donde nos ha metido ese proceso de toma de decisiones automáticas.

play10:45

Esas son algunas de las cosas que hemos encontrado en el trabajo

play10:49

en el entorno de fronteras.

play10:51

Otro ejemplo: también hemos trabajado con universidades,

play10:55

para ver el impacto ético de la ciencia ciudadana.

play10:58

La ciencia ciudadana es la ciencia que se hace con la ayuda de las personas,

play11:01

gente que trabaja el movimiento de los mares o la migración de los pájaros,

play11:06

si tuvieran que desplegar a investigadores a todas partes,

play11:09

para hacer fotografías constantes de cómo está el mar,

play11:11

o cómo se mueven los pájaros esto sería muy costoso.

play11:14

Gracias a la tecnología podemos pedir a la gente que vive en espacios concretos

play11:17

que nos manden una foto del mar cada día cuando se levanten a la misma hora

play11:21

y yo proceso todos esos datos y a partir de ahí hago ciencia.

play11:24

Está muy bien,

play11:25

pero cuando empezamos a trabajar con la universidad y los investigadores,

play11:29

nos encontramos un caso paradigmático de lo que yo llamo despotismo de los datos

play11:33

que es "Todo por el pueblo, con los datos del pueblo, pero sin el pueblo".

play11:37

Los investigadores pedían a la gente que les mandaran un montón de datos personales

play11:41

donde una fotografía geolocalizada puede decir exactamente dónde vivimos,

play11:45

cómo es nuestro entorno e incluso con quién estamos.

play11:48

Pues no había ningún tipo de precaución en relación con la gestión de esos datos.

play11:53

Y lo llamábamos "ciencia ciudadana".

play11:56

Afortunadamente, hoy ya no es así,

play11:57

y hemos creado mecanismos para que la ciencia ciudadana

play12:00

sea realmente ciencia ciudadana, al servicio de las personas

play12:03

y no solo un espacio de uso y abuso de las personas voluntarias

play12:06

que se prestan para participar en esas investigaciones.

play12:10

Trabajamos también mucho en el ámbito del trabajo,

play12:12

el futuro del trabajo, inteligencia artificial,

play12:14

los robots que nos van a quitar el trabajo,

play12:16

todos esos miedos que tenemos.

play12:19

¿Y qué nos encontramos?.

play12:21

Los directores de las empresas, los CEOs, los responsables de las empresas

play12:25

tienden a tomar malas decisiones, cuando éstas involucran la tecnología.

play12:31

Es decir, un responsable de una empresa estará mucho más dispuesto

play12:37

a gastar dinero en tecnología que en procesos no tecnológicos,

play12:40

con lo cual adquirimos tecnología sin pensar si realmente la necesitamos,

play12:45

sobre todo en entornos de trabajo.

play12:48

Estamos viendo la introducción de exoesqueletos,

play12:50

de sensores de control 24 horas en entornos de trabajo

play12:53

en los que no son necesarios para mejorar la eficacia, la eficiencia

play12:57

ni la rentabilidad de esa empresa.

play12:59

Pero, entre que la gente en las empresas no sabe que existen

play13:02

tecnologías menos lesivas, y que quien vende la tecnología

play13:05

siempre quiere venderte la máxima capacidad que puede desarrollar,

play13:08

acabamos con entornos laborales que son insufribles

play13:11

desde la perspectiva de los que trabajan.

play13:13

Tomamos malas decisiones porque la tecnología nos fascina constantemente.

play13:17

Cómo construimos los mecanismos para empoderarnos a todos

play13:20

a saber distinguir cuando una tecnología realmente nos ayuda o no nos ayuda.

play13:24

Pues a eso nos dedicamos en la ética de la tecnología.

play13:28

Un cuarto ejemplo: trabajo mucho en tecnologías de seguridad.

play13:32

La verdad es que podría dar 10 TED talks solo sobre seguridad,

play13:35

porque es un ámbito terriblemente sensible

play13:37

Un par de ejemplos: hace unos años estábamos auditando los algoritmos

play13:41

de un proyecto que quería desplegar cámaras de videovigilancia inteligentes

play13:45

en entornos sensibles; bancos y aeropuertos.

play13:49

Las cámaras de videovigilancia inteligentes son capaces de reconocer

play13:53

comportamientos potencialmente criminales de forma automática,

play13:58

no es necesario que el ojo humano esté controlando lo que ocurre,

play14:01

sino que pueden ver por la forma en que se mueve la gente,

play14:04

si su forma de moverse por un espacio es potencialmente peligrosa

play14:08

y así mandar una alarma y la intervención humana solo es necesaria

play14:12

cuando se ha identificado un comportamiento peligroso.

play14:15

¿Qué nos encontramos?

play14:16

Que los ingenieros se habían codificado a sí mismos como la normalidad.

play14:21

Es decir, la forma de utilizar un banco es entrar y salir,

play14:25

porque tienes mucha prisa, porque tienes trabajo,

play14:28

porque eres joven y te lo puedes permitir.

play14:30

En ese algoritmo quien emergía como potencialmente sospechoso

play14:33

eran gente mayor, que tiene mucho más tiempo, claro, está lloviendo,

play14:38

vas al banco, hay un sofá, oye pues me quedo un ratín, ¿no?

play14:41

Eso no es potencialmente criminal, pero el algoritmo lo identificaba así

play14:45

porque no era cómo el ingeniero habría utilizado ese espacio.

play14:49

O las familias en aeropuertos.

play14:52

Yo que viajo mucho, voy al aeropuerto y quiero salir lo antes posible,

play14:55

pero yo no soy la mayoría, y no soy sobre todo la normalidad.

play14:59

Hay gente que viaja y coge un avión una vez al año.

play15:02

Para quien la experiencia del aeropuerto forma parte del viaje en sí,

play15:05

que van 5 horas antes y dan vueltas, comen, vuelven a comer, descansan,

play15:10

salen a la terraza, y todo eso es normal.

play15:14

Debería ser normal, y en cambio el algoritmo de la cámara inteligente

play15:17

lo había codificado como anormal, y eso pasa constantemente.

play15:21

Como los ingenieros no tienen formación en este tipo de cosas,

play15:24

no se dan cuenta de que codifican su normalidad como la de todos.

play15:29

Y eso, en el ámbito de la seguridad es problemático,

play15:32

porque todo lo que no es normal, es sospechoso.

play15:35

Y todos tenemos derecho a no ser sospechosos,

play15:38

a no ser que hagamos algo realmente sospechoso.

play15:41

Con lo cual la cámara nos acaba convirtiendo en sospechosos constantemente

play15:44

por salir fuera de esa normalidad tan pequeña definida por los tecnólogos.

play15:52

Por no hablar de los algoritmos predictivos en el ámbito de la seguridad.

play15:58

Yo no sé cómo se puede decir más alto y más claro.

play16:01

No podemos predecir el futuro. Eso es magia. Y no sabemos hacerlo.

play16:07

Lo máximo que podemos hacer con los algoritmos

play16:10

es entender lo que ha pasado hasta hoy,

play16:13

y a partir de ahí hacer que emerjan ciertos patrones,

play16:16

y decir: el pasado me lleva a pensar que es posible que en el futuro ocurra eso

play16:22

Esto es lo que podemos hacer. Llamar a eso predicción es muy arriesgado.

play16:28

Y la insistencia actual de las muchísimas fuerzas policiales de todo el mundo

play16:32

en pedir el algoritmo de la radicalización, de la prevención,

play16:36

el pre-crimen, es imposible.

play16:39

La tecnología nos puede ayudar, pero hasta cierto punto.

play16:42

Y todos tenemos derecho a la presunción de inocencia

play16:45

hasta que cometamos un acto ilícito.

play16:48

La tecnología tiende a olvidar eso

play16:50

y se siente tan poderosa y tan poco controlada por todos estos elementos

play16:54

que se atreve a prometer la capacidad de prever y de saber

play16:58

lo que vamos a hacer antes de que a nosotros se nos pase por la cabeza.

play17:03

Y finalmente un último ejemplo: el de movilidad.

play17:06

Todos habéis oído hablar de los coches autónomos ¿no?

play17:09

Teóricamente en poco tiempo todas las ciudades estarán llenas

play17:12

de coches que conducen solos.

play17:15

Pues el coche autónomo es uno de los grandes ejemplos

play17:17

de cómo la arrogancia de la ingeniería puede llevar al fracaso una buena idea.

play17:23

El coche autónomo es muchísimo más seguro que el coche no autónomo.

play17:28

Pero, ¿qué pasa?

play17:30

A las muertes de los coches no autónomos nos hemos acostumbrado,

play17:33

pero cada vez que un coche autónomo mata o hiere a alguien

play17:38

es portada en todo el mundo.

play17:40

Con lo cual la percepción social es que es mucho más inseguro

play17:44

el coche autónomo que el no autónomo.

play17:46

Y mientras los ingenieros insistan en decir tengo aquí todas estas cifras

play17:50

que demuestran que es más seguro,

play17:52

y no se preocupen de convencer a la población,

play17:56

de trabajar la aceptabilidad de esa tecnología,

play17:59

de incorporar los miedos y las preocupaciones sociales

play18:03

en la conceptualización de esa tecnología, seguramente lo que va a pasar

play18:06

es que lo que es una buena idea que podría salvar muchísimas vidas,

play18:10

tardará muchísimo más en implementarse, porque los ingenieros

play18:13

tienden a la arrogancia de los números y de la técnica.

play18:17

Para que veáis que la ética de la tecnología no es solo un tema

play18:21

de tu smartphone, de tu televisor, de los aparatos de consumo que usamos.

play18:26

Hay una infraestructura de datos que marca todo lo que hacemos,

play18:30

que requiere urgentemente de un cierto control, o como mínimo,

play18:34

de la incorporación de responsabilidad.

play18:36

Lo que he encontrado en mi trabajo, es que como hacemos tecnología actualmente

play18:41

es profundamente irresponsable.

play18:44

A ningún médico ni a ninguna empresa farmacéutica se le ocurriría

play18:48

pedirle a la sociedad poder lanzar medicamentos no testados.

play18:53

O lanzar medicamentos que dijeran: "Mira esto cura el constipado pero da cáncer".

play18:57

No lo aceptaríamos.

play18:59

No se puede vender.

play19:00

Y en cambio en ingeniería informática se pide el derecho

play19:04

a lanzar cosas a la sociedad sin testarlas de ninguna manera,

play19:07

sin tener ningún tipo de conciencia de su impacto social.

play19:12

La buena noticia es que creo que esto está empezando a cambiar.

play19:16

Que existan perfiles como el mío, con conocimientos en ciencia social,

play19:21

pero también en elementos técnicos de la matemática y de la física,

play19:25

muestra que empieza a haber interés por estas cosas.

play19:28

Cada vez hay más grupos de investigación y de trabajo en empresas, en universidades

play19:32

y en espacios público-privados que aúnan a sociólogos, filósofos, abogados,

play19:39

a físicos, matemáticos, ingenieros e informáticos para intentar entender

play19:44

cuáles son esos impactos legales, sociales y éticos de las tecnologías,

play19:49

que ayudan a dilucidar cuál es la deseabilidad

play19:53

y cómo aumentar esa deseabilidad de los productos

play19:55

que se quieren fabricar en el futuro.

play19:58

Cada vez hay más grupos que trabajan en mejorar la transparencia

play20:02

y el control de los algoritmos, por ejemplo.

play20:05

La idea de los estudios de impacto está cada vez más extendida.

play20:11

De la misma forma que no podemos construir un nuevo desarrollo

play20:15

de infraestructuras, una nueva carretera, sin justificar su impacto ambiental,

play20:20

no deberíamos poder lanzar productos tecnológicos al mercado

play20:23

sin justificar antes que nos hemos planteado en algún momento

play20:27

qué impacto va a tener eso sobre la sociedad

play20:29

y si ese impacto es deseable o no, y si no es deseable,

play20:32

qué medidas hemos tomado para aumentar la deseabilidad de ese producto.

play20:38

Ahora mismo muchísima gente estamos implicados en crear la innovación

play20:42

responsable del futuro, que creo que es muy necesaria.

play20:47

Y no obstante, se siguen oyendo voces que dicen constantemente

play20:51

que la prevención, ética y regulación van en contra de la innovación,

play20:57

que no podemos poner límites a la capacidad creadora

play21:00

de los hombres ingenieros y sus grandes ideas.

play21:04

Pues lo siento pero no es así.

play21:06

Como humanidad, llevamos toda nuestra historia

play21:09

domesticando a la tecnología.

play21:11

¿Un coche necesita un cinturón de seguridad para circular?

play21:15

No.

play21:17

¿Un coche necesita un límite de velocidad?

play21:19

No.

play21:20

Los coches podrían ir muchísimo más rápido de lo que van por nuestras calles.

play21:25

¿Un coche necesita pasos de cebra, semáforos,

play21:28

control de emisiones contaminantes?

play21:30

No.

play21:31

Todas estas cosas se las hemos añadido las sociedad humana,

play21:35

para asegurar que lo que es una innovación tecnológica deseable,

play21:39

que es un motor, algo que nos lleve de A a B de forma más rápida,

play21:43

sea también deseable desde la perspectiva social.

play21:47

Hemos limitado las posibilidades de los coches,

play21:50

porque hemos entendido que queremos ir más rápido de A a B,

play21:53

pero no queremos que muera tanta gente en ese proceso.

play21:58

Eso lo hemos hecho siempre.

play21:59

Siempre hemos limitado las capacidades de la tecnología,

play22:02

porque la tecnología solo tiene sentido si mejora,

play22:04

si aborda las problemáticas sociales.

play22:08

Y que desde la ingeniería informática

play22:10

se hayan olvidado tantas veces esa lógica es claramente preocupante.

play22:16

Al final lo que hemos hecho con el coche

play22:18

es tener debates a lo largo de mucho tiempo,

play22:20

el primero no tenía cinturón de seguridad, ni había semáforos, ni pasos de cebra.

play22:25

Pero durante mucho tiempo creamos esos marcos, como sociedad,

play22:29

esos consensos sociales que nos llevan a poder utilizar hoy los vehículos

play22:33

de forma normalizada.

play22:35

Estos son los debates y consensos sociales que deben emerger alrededor

play22:38

de cualquier nueva tecnología.

play22:41

Debemos dilucidar cuando aparece un nuevo algoritmo,

play22:43

una nueva innovación tecnológica, un nuevo invento,

play22:46

debemos decidir entre todos cuáles van a ser

play22:48

los cinturones de seguridad, los límites de velocidad,

play22:51

los límites de emisiones, los pasos de cebra y los semáforos

play22:54

de esa nueva innovación.

play22:56

A eso se dedica la ética de la tecnología.

play22:58

Primero a fomentar esos debates, para que entre todos decidamos

play23:02

si es mejor un control humano, o uno mecánico para cruzar una frontera,

play23:07

para tomar entre todos responsabilidad de las decisiones

play23:10

que tomamos en relación con la tecnología, y a partir de esa deseabilidad

play23:14

lo que vemos es cómo construir valores fundamentales, cohesión social,

play23:17

confianza, no discriminación, derechos humanos en las especificaciones técnicas.

play23:23

Porque no es solo un tema de dar discursos

play23:25

Hay formas a través de las especificaciones técnicas

play23:28

para hacer que las tecnologías respondan mucho mejor

play23:31

a las expectativas y deseos de la sociedad

play23:35

De la misma forma que hemos podido construir coches que maten menos,

play23:39

podemos construir tecnologías que no solo sean menos lesivas

play23:42

sino que contribuyan de forma definitiva a mejorar el futuro de nuestras sociedades

play23:47

En definitiva, de lo que se trata la ética de la tecnología

play23:50

es de poner a las personas en el centro del desarrollo tecnológico,

play23:53

y poner la tecnología al servicio de las personas.

play23:56

Y no como estamos ahora muchísimas veces, las personas al servicio de la tecnologías

play24:01

Gracias.

play24:02

(Aplausos)

Rate This

5.0 / 5 (0 votes)

Related Tags
Ética TecnológicaPrivacidadInnovaciónSociedadTecnologíaImpacto SocialResponsabilidadSeguridadAutonomíaCiencia CiudadanaControl de Identidad
Do you need a summary in English?