Dilemas éticos difíciles: imperativos categóricos vs. utilitarismo

Tomorrow Matters - Español
29 Apr 202214:01

Summary

TLDREl vídeo explora dilemas éticos como el utilitarismo frente a los imperativos categóricos de Kant, discutiendo la importancia de las consecuencias frente a la autonomía individual. Presenta el dilema del tranvía para ilustrar cómo se toman decisiones morales difíciles. Aborda la 'distancia moral', cómo afecta nuestras acciones y cómo se aplica a la ética en la inteligencia artificial y vehículos autónomos, planteando preguntas sobre la responsabilidad legal y ética en la toma de decisiones.

Takeaways

  • 🤔 Los dilemas éticos son inevitables en la vida y pueden involucrar decisiones complejas sobre la verdad y los principios.
  • 📜 Los imperativos categóricos de Kant sugieren que las acciones deben basarse en principios universales, respetando siempre la autonomía de las personas.
  • 🧠 El utilitarismo, propuesto por filósofos como Jeremy Bentham y John Stuart Mill, se enfoca en maximizar el bien para el mayor número de personas.
  • 🚋 El dilema del tranvía es un ejemplo filosófico que confronta las decisiones morales entre salvar a más personas o seguir principios inmutables.
  • 🧮 La idea de cuantificar el dolor y el placer en unidades es atractiva pero problemática, ya que no todo es fácilmente mensurable.
  • 👥 La distancia moral afecta nuestra percepción y responsabilidad, haciéndonos menos sensibles a los efectos de nuestras acciones en otros cuando no los vemos directamente.
  • 🌍 La ética del consumo, como el sufrimiento animal en la industria alimentaria, también está influenciada por la distancia moral y nuestras elecciones cotidianas.
  • 🚗 La implementación de vehículos autónomos plantea dilemas éticos similares al problema del tranvía, con decisiones sobre a quién priorizar en accidentes.
  • 🛠️ La responsabilidad de los fallos de los vehículos autónomos es una cuestión compleja que podría recaer en los fabricantes, desarrolladores de software o gobiernos locales.
  • 🧑‍⚖️ La ética aplicada a la inteligencia artificial y la tecnología autónoma será crucial en el futuro para crear leyes y regulaciones justas que consideren estos dilemas.

Q & A

  • ¿Qué son los imperativos categóricos según Immanuel Kant?

    -Los imperativos categóricos son principios morales que indican que una acción es buena o mala independientemente de sus consecuencias. Según Kant, nuestras acciones deben regirse por principios universales, y siempre debemos tratar a las personas como fines en sí mismas y no como medios para un fin.

  • ¿Cuál es la diferencia fundamental entre el utilitarismo y los imperativos categóricos?

    -La diferencia fundamental es que el utilitarismo se centra en el resultado final de las acciones, buscando el mayor bien para el mayor número de personas, mientras que los imperativos categóricos se enfocan en seguir principios morales inquebrantables, independientemente de las consecuencias.

  • ¿Qué es el dilema del tranvía y por qué es relevante en la filosofía ética?

    -El dilema del tranvía es un experimento mental donde una persona debe decidir entre dejar que un tranvía atropelle a cinco personas o desviarlo para que solo atropelle a una. Es relevante porque plantea preguntas sobre el valor de la vida humana y la moralidad de sacrificar a unos pocos para salvar a muchos.

  • ¿Cómo afecta la distancia moral a nuestras decisiones éticas?

    -La distancia moral refiere a cómo la cercanía o lejanía de las consecuencias de nuestras acciones afecta nuestra percepción de responsabilidad. Cuanto más distantes parecen los efectos de una acción, menos responsabilidad sentimos, lo que puede llevarnos a ignorar el impacto de nuestras decisiones, como ocurre con el consumo y su impacto en el medio ambiente o los derechos humanos.

  • ¿Qué desafíos éticos plantea el uso de vehículos autónomos?

    -Los vehículos autónomos plantean dilemas éticos sobre cómo deben tomar decisiones en situaciones críticas, como evitar un accidente a costa de sacrificar vidas. Esto plantea preguntas sobre qué vidas priorizar y quién debe ser responsable de las decisiones: los fabricantes, los ingenieros o los gobiernos.

  • ¿Por qué es importante discutir la ética en la inteligencia artificial y la tecnología autónoma?

    -Es importante porque las decisiones que tomen estos sistemas autónomos pueden tener consecuencias graves, como la pérdida de vidas humanas. Al implementar estos sistemas, es necesario tener en cuenta principios éticos para garantizar que sus decisiones sean justas y beneficien a la sociedad en general.

  • ¿Qué plantea la fórmula de la humanidad de Kant en relación con el dilema del tranvía?

    -La fórmula de la humanidad de Kant sugiere que nunca debemos tratar a una persona como un medio para un fin, lo que implicaría que empujar a alguien a la vía del tranvía para salvar a otros sería inmoral, incluso si el resultado es salvar más vidas.

  • ¿Qué problemas surgen al intentar cuantificar el dolor y el placer, como sugiere el utilitarismo?

    -El problema es que no todo sufrimiento o placer puede ser cuantificado de manera objetiva. Algunos dolores o placeres son difíciles de medir y asignar un valor ético, lo que complica la toma de decisiones basada únicamente en una lógica utilitarista.

  • ¿Qué papel juegan los sesgos subjetivos en nuestras decisiones morales, según el video?

    -Los sesgos subjetivos influyen en nuestras decisiones morales porque lo que una persona valora puede ser diferente de lo que otra valora. Esto afecta cómo percibimos el dolor o el placer, y puede llevarnos a tomar decisiones basadas en preferencias personales en lugar de principios objetivos.

  • ¿Por qué el consumo de productos animales es un ejemplo importante de la distancia moral en el video?

    -El consumo de productos animales es un ejemplo de distancia moral porque muchas personas que consumen carne no sienten responsabilidad directa por el sufrimiento de los animales, ya que no presencian el proceso. Esta distancia entre el consumidor y el daño que se causa hace que sea más fácil ignorar las implicaciones éticas.

Outlines

00:00

🤔 Dilemas éticos y teorías filosóficas

El video introduce los dilemas éticos, situaciones en las que no se sabe cuál es la mejor opción. Se presenta un debate clave en la filosofía: ¿Debemos seguir principios estrictos, como los imperativos categóricos de Kant, o priorizar los resultados finales, como sugiere el utilitarismo? Cada enfoque plantea dificultades, y la aplicación de estos conceptos en campos como la inteligencia artificial es crucial. A continuación, se exploran las bases filosóficas de estas ideas.

05:00

📜 Imperativos categóricos y utilitarismo

Los imperativos categóricos, una teoría presentada por Kant, sugieren que nuestras acciones deben basarse en principios morales fijos, como tratar a las personas como un fin en sí mismas. En contraste, el utilitarismo, desarrollado por Jeremy Bentham y John Stuart Mill, sostiene que la moralidad se mide por el bien máximo para la mayor cantidad de personas. El dilema surge cuando ambas teorías ofrecen soluciones diferentes, planteando preguntas sobre qué sufrimientos o beneficios tienen mayor peso moral.

10:01

🚋 El dilema del tranvía y sus variantes

El dilema del tranvía es un problema ético clásico en el que se debe decidir si desviar un tranvía para salvar cinco vidas sacrificando una. Se presentan diferentes variantes de este dilema, como si se debería salvar a criminales o a doctores, lo que introduce la idea de si es ético valorar la vida de las personas de manera diferente. La discusión también aborda la diferencia entre tirar de una palanca o empujar a una persona, lo que plantea la noción de usar a otros como medios para un fin.

📏 La distancia moral y su impacto en nuestras decisiones

El concepto de distancia moral se refiere a cómo nuestras acciones impactan a otros, directa o indirectamente. Cuando no presenciamos el efecto de nuestras decisiones, como en el caso del consumo de productos que dañan el medio ambiente o los derechos humanos, la responsabilidad se siente más lejana. Se exploran ejemplos como la cría industrial de animales y el papel de los consumidores en la creación de demanda, destacando la importancia de esta idea en la ética contemporánea.

🚗 Ética y vehículos autónomos

Se discuten los dilemas éticos de los vehículos autónomos, como el caso de Elaine Herzberg, la primera persona fallecida por un coche autónomo en 2018. Se plantean preguntas sobre cómo estos vehículos deben decidir en situaciones críticas, como evitar una colisión. El video explora si el software debería priorizar a una familia sobre un individuo, o si deberíamos dejar decisiones éticas al azar para simular la imprevisibilidad humana. La responsabilidad legal y ética también es un tema clave en este contexto.

🔮 El futuro de los vehículos autónomos y la ética

El video concluye discutiendo el futuro de los vehículos autónomos y su impacto positivo en la seguridad vial. Sin embargo, plantea cuestiones éticas, como quién debería ser responsable en caso de un accidente: el fabricante, el programador del software o el gobierno. Además, se reflexiona sobre el papel de la ética en el diseño de estos sistemas, comparando el dilema del tranvía con decisiones que los coches autónomos deberán tomar. Finalmente, se invita a los espectadores a compartir sus opiniones.

Mindmap

Keywords

💡Dilemas éticos

Los dilemas éticos son situaciones en las que una persona enfrenta decisiones difíciles sobre lo que es correcto o incorrecto, sin una solución clara que sea completamente moral. En el video, se menciona cómo estos dilemas son comunes y se ejemplifican con situaciones como el problema del tranvía, donde cualquier elección conlleva consecuencias éticas.

💡Imperativos categóricos

El concepto de 'imperativos categóricos', desarrollado por Immanuel Kant, se refiere a principios morales absolutos que deben seguirse sin importar las consecuencias. En el video, se explica que bajo este enfoque, nuestras acciones deben respetar la autonomía de las personas, tratándolas siempre como un fin en sí mismo y no como un medio.

💡Utilitarismo

El utilitarismo es una teoría ética que sostiene que la moralidad de una acción se mide por su capacidad para generar el mayor bien posible para el mayor número de personas. En el video, se discute cómo esta corriente ética prioriza las consecuencias y se compara con los imperativos categóricos, poniendo énfasis en el resultado final de las acciones.

💡Problema del tranvía

El problema del tranvía es un experimento mental que plantea una situación en la que una persona debe decidir si salvar la vida de cinco personas sacrificando a una sola, o no hacer nada y permitir que mueran cinco personas. Este dilema ilustra los conflictos entre el utilitarismo y los imperativos categóricos, ya que implica elegir entre la cantidad de vidas o los principios éticos.

💡Consecuencias morales

Las consecuencias morales se refieren a los resultados de nuestras acciones desde un punto de vista ético. En el video, se habla de cómo el utilitarismo se enfoca en las consecuencias para determinar la moralidad de una acción, contrastando con la ética kantiana, que prioriza los principios morales.

💡Fórmula de la humanidad

La 'fórmula de la humanidad' es un principio kantiano que establece que las personas nunca deben ser tratadas como medios para un fin, sino como fines en sí mismas. En el video, se utiliza para criticar la idea de sacrificar a una persona para salvar a varias, destacando la importancia de respetar la dignidad humana.

💡Distancia moral

La distancia moral se refiere a cómo la proximidad emocional o física a las consecuencias de nuestras acciones afecta nuestra percepción de responsabilidad. En el video, se ilustra con ejemplos de caridad y consumo de productos, explicando cómo las personas tienden a ignorar el sufrimiento lejano o abstracto, pero reaccionan más emocionalmente a situaciones cercanas.

💡Decisiones morales

Las decisiones morales son las elecciones que hacemos al enfrentarnos a situaciones donde debemos aplicar criterios éticos para actuar. El video explora cómo nuestras decisiones están influenciadas por principios como los imperativos categóricos o el utilitarismo, y cómo estas decisiones afectan tanto a nivel personal como global, especialmente en tecnologías emergentes.

💡Vehículos autónomos

Los vehículos autónomos son automóviles que se conducen a sí mismos sin intervención humana. En el video, se discuten los dilemas éticos relacionados con su implementación, como quién debe ser prioritario en caso de un accidente inevitable y quién sería responsable legalmente si ocurre un accidente. Estos ejemplos están relacionados con el problema del tranvía aplicado a la tecnología moderna.

💡Responsabilidad legal

La responsabilidad legal en contextos éticos se refiere a quién debe ser considerado responsable cuando una acción resulta en un daño o problema. En el video, se discuten las implicaciones legales de los vehículos autónomos, cuestionando si los fabricantes, los diseñadores de software o los gobiernos deben asumir la responsabilidad por los accidentes causados por la tecnología.

Highlights

Los dilemas éticos son situaciones complejas en las que no siempre hay una respuesta clara, y las decisiones a menudo se basan en principios morales o en los resultados finales.

Immanuel Kant propone los imperativos categóricos, que establecen que las acciones deben basarse en principios universales, como tratar a las personas como fines en sí mismas y no como medios para un fin.

El utilitarismo, desarrollado por Jeremy Bentham y John Stuart Mill, sostiene que las decisiones morales deben enfocarse en maximizar el bienestar para el mayor número de personas.

El dilema del tranvía es un ejemplo clásico de cómo los principios morales pueden entrar en conflicto con los resultados: ¿es moral desviar un tranvía para salvar a cinco personas, sabiendo que una persona moriría en consecuencia?

Kant argumentaría que empujar a una persona para salvar a otras va en contra de sus principios éticos, ya que las personas no deben ser usadas como medios para un fin.

El concepto de distancia moral explica cómo la proximidad física o emocional a una situación influye en las decisiones éticas. Las personas tienden a sentir menos responsabilidad cuando el sufrimiento está más alejado.

Las decisiones éticas en el consumo animal también se ven afectadas por la distancia moral: la mayoría de las personas se opone a la crueldad animal, pero aún así consumen productos que contribuyen a ella.

Los dilemas éticos también son clave en la implementación de tecnologías autónomas, como los vehículos sin conductor, que deben tomar decisiones rápidas en situaciones complejas.

En 2018, Elaine Herzberg fue la primera persona en morir en un accidente con un vehículo autónomo, lo que generó un debate sobre cómo programar estos sistemas para tomar decisiones morales.

La imprevisibilidad humana en situaciones de tráfico puede ser reemplazada por algoritmos en vehículos autónomos, pero surgen preguntas sobre quién debe ser priorizado en situaciones de vida o muerte.

El software de vehículos autónomos podría usar un enfoque utilitarista, priorizando salvar más vidas, pero esto plantea preocupaciones éticas sobre la valoración de unas vidas sobre otras.

Una posible solución para los dilemas éticos en los vehículos autónomos sería implementar decisiones aleatorias, simulando la imprevisibilidad humana, pero esto también tiene sus críticas.

Las decisiones morales en sistemas autónomos podrían implicar la priorización de una familia sobre una sola persona o incluso de personas con un mejor 'puntaje' en la sociedad, lo que podría llevar a un sistema discriminatorio.

En el futuro, los fabricantes de automóviles y los diseñadores de software de inteligencia artificial deberán enfrentar la responsabilidad legal de las decisiones que toman sus sistemas en situaciones críticas.

Estudiar ética y filosofía es crucial para entender cómo tomar mejores decisiones en la vida diaria y en el diseño de nuevas tecnologías que afecten a la humanidad.

Transcripts

play00:00

los dilemas éticos son algo que todo el

play00:01

mundo enfrenta de vez en cuando todos

play00:03

nos hemos encontrado con situaciones en

play00:05

las que no sabemos cuál es la mejor

play00:06

opción deberíamos de decir siempre la

play00:08

verdad poner las necesidades de la

play00:10

mayoría en frentes y eso significa

play00:12

sacrificar a unos pocos o deberíamos

play00:14

apegarnos siempre a nuestros principios

play00:15

sin importar lo que suceda hoy voy a

play00:17

cubrir dos ideas que han sido discutidas

play00:19

ampliamente en la filosofía muchos

play00:21

considerándolo uno de los debates más

play00:23

importantes relacionados con la ética

play00:24

los imperativos categóricos que le

play00:26

utilitarismo se deben seguir un conjunto

play00:29

estricto de principios como se trata de

play00:30

cuestiones morales o es más importante

play00:32

el resultado final diferentes culturas

play00:34

tienen ideas distintas de cuál es el

play00:36

mejor curso de acción en una situación

play00:38

predeterminada pero cuando surgen

play00:40

situaciones en las que alguien termina

play00:41

sufriendo sin importar lo que elijan la

play00:43

situación se complica tarea varios

play00:45

ejemplos importantes de este debate en

play00:46

acción así como situaciones prácticas

play00:48

que deberán reflejarse en tus leyes'

play00:50

discutiré porque estos dilemas éticos

play00:52

son importantes para campos como la

play00:54

inteligencia artificial y la forma en la

play00:55

que implementamos tecnologías autónomas

play00:57

pero primero echemos un vistazo rápido a

play01:00

las ideas filosóficas detrás de estos

play01:02

conceptos

play01:03

[Música]

play01:08

[Aplausos]

play01:08

[Música]

play01:12

los imperativos categóricos son la

play01:14

creencia de que una acción es buena o

play01:16

mala a través de una serie de principios

play01:18

immanuel kant sentó las bases de esta

play01:20

forma de pensar en el siglo 18 explica

play01:23

que nuestras acciones deben decidirse

play01:24

sobre una serie de principios razón

play01:26

antes escribió sobre la fórmula de la

play01:27

humanidad o el segundo imperativo

play01:29

categórico un principio que establece

play01:31

que siempre debemos tratar a las

play01:33

personas muy fin en sí mismas y nunca

play01:35

como un medio para un fin este es un

play01:37

resumen muy condensado de la ética

play01:38

kantiana pero el punto clave de recordar

play01:40

es que las personas siempre se les debe

play01:42

respetar su autonomía el utilitarismo

play01:44

por otro lado explica que para que las

play01:46

personas tomen buenas decisiones deben

play01:47

enfocarse en el resultado final o las

play01:49

consecuencias de esas acciones la base

play01:51

de este punto de vista fue desarrollada

play01:53

por jones work now y jeremy inventan

play01:55

escribieron sobre el principio de

play01:56

utilidad que cada elección que hagamos

play01:58

debe tener en cuenta el mayor bien

play02:00

posible para el mayor número de personas

play02:02

pero esto significa que es moralmente

play02:04

aceptable hacer cosas inmorales para

play02:05

alcanzar ese objetivo la discusión entre

play02:07

los imperativos categóricos y el

play02:09

utilitarismo es importante por una

play02:10

variedad de razones alguno que mucha

play02:12

gente estará de acuerdo es que algunos

play02:14

sufrimientos son mayores que otros

play02:15

sufrimientos así como algunas bondades

play02:17

son mayores que otras mundanas me

play02:19

encantaría profundizar el tema incluido

play02:20

en los principios detrás del

play02:21

utilitarismo de acto y de la regla pero

play02:23

colocaré un enlace a los increíbles

play02:25

episodios de craft wars filosofía en la

play02:27

descripción si quieren sacar ahora que

play02:28

tenemos nuestra comprensión básica de

play02:30

estos imperativos categóricos y

play02:32

utilitarismo discutiremos el dilema del

play02:34

tranvía un problema que es popular en la

play02:36

filosofía por hacernos pensar éticamente

play02:38

en decisiones en las que alguien siempre

play02:39

sale perdiendo y cómo podemos tomar la

play02:41

mejor decisión posible imagina que estás

play02:43

parado frente una palanca que controla

play02:45

un interruptor que cambia la dirección

play02:47

de un tranvía que se dirige a la

play02:48

intersección a toda velocidad en la vía

play02:50

en la que se dirige hay cinco personas

play02:51

atadas al dejarlos seguir en este curso

play02:54

esa gente morirá sin embargo puedes

play02:56

optar por jalar la palanca cambiando la

play02:58

dirección del carro pero matará a una

play03:00

sola persona que esté atada al otro lado

play03:02

de la vía tienes un minuto para decidir

play03:03

lo que vas a hacer cambiarás la

play03:05

dirección del tranvía salvando la vida

play03:06

de cinco personas pero siendo

play03:08

directamente responsable por la muerte

play03:10

de una sola o elegirás no actuara

play03:12

pegándote tu principio de no mandar pero

play03:14

si no directamente responsable de la

play03:16

muerte de cinco personas de vídeo tu

play03:17

inácio podemos observar como en este

play03:19

caso no actuar es una acción en sí misma

play03:21

y como en algunas situaciones no hay

play03:23

respuestas básicas

play03:24

alguna forma de logista de resolver el

play03:26

problema o todo se reduce al sistema

play03:28

moral de cada persona si este último es

play03:30

el caso como escribimos estos principios

play03:32

en nuestras leyes todo el mundo está de

play03:33

acuerdo en que algunas cosas son más

play03:35

dolorosas que otras si le das una

play03:36

cachetada a una persona no le caso es la

play03:38

misma cantidad de dolor que si la

play03:40

puñaladas con un cuchillo de la misma

play03:41

manera algunas cosas son más placenteras

play03:43

o significativas que otros si le das a

play03:46

alguien una caja de bombones como regalo

play03:47

no le causan la misma cantidad de placer

play03:49

que si le dieras una entrada para ver a

play03:51

su artista favorita en concierto

play03:52

significa esto que podemos cuantificar

play03:54

el dolor y el placer según este

play03:56

principio imaginemos que venimos una

play03:58

bofetada en la cara como diez unidades

play03:59

de dolor que apuñalar a alguien en el

play04:01

estómago como mil unidades de dolor para

play04:03

dar un ejemplo si aplicáramos

play04:04

lógicamente este principio a cada

play04:06

decisión moral que tomamos podríamos

play04:08

lograr un sistema ético perfecto bueno

play04:10

pues alguien podría argumentar que según

play04:12

esta lógica apuñalar a alguien sería

play04:13

mucho más preferible que darle una

play04:15

cachetada 200 personas verdad aquí

play04:17

puedes ver cómo este sistema empieza a

play04:19

colapsar algunas cosas son difíciles o

play04:21

incluso imposibles de cuantificar y

play04:23

asignarle un valor éticamente hablando

play04:25

aún así procesamos cuestiones de

play04:26

principios y cómo tomamos decisiones

play04:28

basadas en el valor que

play04:29

inconscientemente le dan a las personas

play04:31

y a las cosas por supuesto este proceso

play04:33

de toma de decisiones puede ser muy

play04:35

subjetivo por ejemplo si alguien me

play04:37

diera un boleto para ir a ver hacer en

play04:38

la johns uno de mis artistas favoritos

play04:40

en concierto me causaría muchísimo más

play04:42

placer que ver a ariana grande en

play04:43

concierto incluso si harían a grandes

play04:45

mucho más popular desde un punto de

play04:47

vista objetivo el artista más popular de

play04:49

mérida causar más placer pero desde mi

play04:51

punto de vista subjetivo elegiría hacer

play04:52

el año más cada vez deberíamos de tomar

play04:54

más decisiones basadas en valores

play04:56

subjetivos esta idea se puede usar para

play04:58

determinar qué necesidades aplican a

play05:00

diferentes personas pero lo más

play05:02

importante porque la toma de decisiones

play05:03

a una escala más amplia puede ser

play05:05

compleja hay otras variaciones del

play05:07

problema del tranvía que presentan

play05:08

preguntas aún más difíciles ahora

play05:10

imagina el mismo escenario con

play05:11

diferentes personas en las vidas qué

play05:13

pasaría si tuvieras que matar a un

play05:15

criminal para salvar a cinco doctores o

play05:17

matar a un doctor para salvar a cinco

play05:19

criminales influye esto en tu decisión

play05:20

es siquiera ético asignarle un valor

play05:23

diferente a las personas dependiendo de

play05:25

quiénes son o las decisiones morales

play05:26

deberían ser imparciales exploremos un

play05:29

segundo escenario imagina que en lugar

play05:30

de tener que tirar de la palanca la

play05:32

única forma de tener el carro en

play05:33

movimiento es empujar a la víctima hacia

play05:35

la vía al salvar a las cinco personas

play05:37

tuviste un contacto cercano con la

play05:39

muerte de la persona esto expone más la

play05:41

idea de kant de que las personas nunca

play05:42

deberían ser un medio para un fin

play05:44

empujar a la persona en lugar de tirar

play05:46

de la palanca incluyendo decisión aunque

play05:48

el resultado final sea el mismo en ambas

play05:50

situaciones para muchas personas este es

play05:52

el caso pero no podemos explicarnos por

play05:54

qué eso nos lleva a la idea de la

play05:56

distancia moral

play05:57

la distancia moral es una de las ideas

play05:59

menos habladas pero más impactantes en

play06:01

nuestra sociedad cada una de nuestras

play06:03

acciones tiene un efecto sobre otras

play06:04

personas a veces a nivel personal y

play06:07

otras veces en situaciones abstractas a

play06:09

gran escala como corporaciones que

play06:10

producen en masa productos que tienen

play06:12

graves impactos en el medio ambiente y

play06:14

en los derechos humanos en otros casos

play06:16

nosotros como consumidores tenemos un

play06:17

impacto directo al influir la demanda de

play06:19

estos productos sin embargo no nos

play06:21

sentimos responsables por los efectos

play06:23

que causan estas corporaciones esto se

play06:25

debe a dos razones la primera es porque

play06:27

los consumidores creen que el hecho de

play06:29

repartir la culpa entre todos no sólo

play06:31

entre ellos los absuelve de cualquier

play06:32

responsabilidad la segunda razón se debe

play06:35

la distancia moral la idea que por qué

play06:37

no vemos los efectos tangibles de

play06:38

nuestras acciones las hace parecer más

play06:40

distantes comparado como si los

play06:42

hubiéramos estado presenciando

play06:44

vemos el tema de la caridad imaginemos

play06:46

que vemos a alguien en la calle a punto

play06:47

de morir y la única forma de salvarlos

play06:49

sería sacrificando 10.000 veces muchos

play06:52

de nosotros no dudaríamos en hacerlo le

play06:54

damos mucho valor a la vida humana y

play06:55

estar tan cerca de la persona moribunda

play06:57

influye nuestros prejuicios y nuestro

play06:59

deseo de ayudar pero si imaginamos que

play07:01

esta persona hipotética está al otro

play07:02

lado del mundo y en lugar de estar en el

play07:04

momento una organización nos dice que

play07:06

podríamos dar dos mil pesos garantizados

play07:07

para salvar o ayudar la calidad de vida

play07:10

de la persona muchos dudamos en regalar

play07:12

nuestro dinero este es un ejemplo muy

play07:14

simplificado de lo que creo que es uno

play07:15

de los temas más importantes en la

play07:17

sociedad actual la mayoría de la gente

play07:19

ignora el hecho de que sus elecciones

play07:20

tienen un impacto directo en el mundo y

play07:23

ven en el principio de que sus acciones

play07:24

se limitan a su entorno inmediato o que

play07:26

alguien más se ocupará de los problemas

play07:28

del mundo centrémonos en un tema más

play07:30

tangible la cría de animales viene con

play07:32

mucha carga especialmente en torno a la

play07:34

cría industrial para alimento estos

play07:36

lugares además de causar un sufrimiento

play07:37

incalculable a estos animales dejan una

play07:40

huella catastrófica en el medio ambiente

play07:41

para producir carne y parte de la ropa

play07:44

que usamos estos animales tienen que ser

play07:45

asesinados de formas brutales si le

play07:47

preguntas a la gran mayoría de las

play07:49

personas dirían que nunca también a un

play07:50

animal especialmente en la forma en la

play07:52

que hacen en los mataderos muchos

play07:54

incluso se llaman a sí mismos amantes de

play07:56

los animales y todos entienden que estas

play07:58

criaturas pueden sufrir sin embargo el

play08:00

consumo de las personas es una causa

play08:02

directa de la demanda que mueve estas

play08:04

industrias muchos se oponen diciendo que

play08:06

no es la misma cosa pero esto nos lleva

play08:08

nuevamente a la idea de la distancia

play08:09

moral apretar el gatillo y hacer que

play08:11

alguien buena enfrente de ti causa la

play08:13

misma cantidad de daño que si la persona

play08:15

estuviera a mil kilómetros de distancia

play08:16

pero por alguna razón las personas

play08:18

tienen un sesgo cuando se trata de

play08:20

ignorar el sufrimiento que ocurre en

play08:21

términos abstractos o a gran escala

play08:23

opuestos al sufrimiento en el momento

play08:24

deberíamos siquiera usar animales para

play08:26

nuestros intereses aplica la fórmula de

play08:28

humanidad de kanda hacia ellos sino

play08:30

porque no la ética del consumo animal es

play08:33

un tema amplio que tendrá su propio

play08:35

vídeo en el futuro pero por ahora

play08:36

recuerda que la idea de la distancia

play08:38

moral que es importante cuando se habla

play08:39

de la ética como hemos visto hasta ahora

play08:41

en este vídeo pensar en este tipo de

play08:43

preguntas difíciles es algo incómodo

play08:45

pero últimamente necesario si queremos

play08:46

asegurar un futuro justo para todos más

play08:49

importante aún elegir qué tipo de leyes

play08:51

vamos a aceptar en nuestra sociedad ya

play08:53

he tratado el tema de la distancia moral

play08:54

en relación a las personas necesitadas

play08:56

la cría de animales pero algo que

play08:58

también se tendrá que discutir en

play08:59

profundidad son los principios éticos

play09:01

aplicados a la inteligencia artificial y

play09:03

a los sistemas autónomos exploremos los

play09:05

autos sin conductor por un minuto en el

play09:07

futuro cuando los fabricantes de

play09:09

automóviles comiencen a poner estos

play09:10

vehículos en la carretera se deberán

play09:12

abordar muchos temas desde diferentes

play09:13

perspectivas como la ingeniería las

play09:15

leyes y la ética creo firmemente que los

play09:18

autos sin conductor son el futuro y

play09:19

ayudarán enormemente a la humanidad el

play09:21

18 de marzo del 2018 elaine pérez words

play09:24

de 49 años murió trágicamente en lo que

play09:26

es la primera muerte registrada que

play09:28

involucra un vehículo autónomo erzberg

play09:30

fue atropellada por un vehículo de

play09:32

prueba de uber que operaba en modo

play09:33

autónoma incluso antes de esta tragedia

play09:35

muchas empresas e ingenieros de

play09:37

vehículos autónomos han entrado en un

play09:39

nuevo escenario existencial se darán

play09:40

cuenta de que la forma en que integramos

play09:42

estos sistemas en los automóviles deben

play09:44

tener en cuenta todos los escenarios

play09:45

posibles sin embargo es importante

play09:47

recordar que serán positivos y se

play09:49

implementan correctamente en nuestras

play09:51

carreteras en los eeuu la cantidad de

play09:53

muertes anuales por cada 100.000

play09:55

personas puede 11.14 en 2019 estos son

play09:58

más de 36 mil personas aunque las cifras

play10:01

han disminuido desde 990 el vídeo

play10:04

mejores medidas de seguridad vial sigue

play10:06

siendo inaceptable que mueran tantas

play10:07

personas en estos trágicos accidentes en

play10:10

mi opinión personal los seres humanos

play10:11

nunca fueron hechos para conducir

play10:13

vehículos si lo piensas decidimos

play10:15

controlar enormes máquinas de varias

play10:16

toneladas que van por carreteras las

play10:18

velocidades ridículas pone un pequeño

play10:20

error es la diferencia entre la vida y

play10:21

la muerte todos hemos acordado realizar

play10:24

una intricada danza dentro de estas

play10:25

máquinas y nuestras carreteras con un

play10:27

profundo sentido de confianza hacia

play10:29

otras personas lo único que nos mantiene

play10:30

con vida confianza que nos hace estar

play10:33

seguros de que todas las demás personas

play10:34

detrás del volante están cuerdas sobrias

play10:36

y dedican toda su atención a lo que

play10:38

están haciendo por supuesto como hemos

play10:40

visto esto no siempre es el caso estamos

play10:42

destinados a vivir con esta

play10:43

imprevisibilidad con los coches

play10:45

autónomos se eliminarán la calidad y la

play10:48

imprevisibilidad de la atención y

play10:49

emociones humanas usando tecnologías

play10:51

como beat sussex o vehículo hacia todo

play10:53

cada variable que pueda afectar el

play10:55

tráfico será pensada e implementada en

play10:57

los algoritmos además de disminuir

play10:59

significativamente los accidentes de

play11:00

tráfico los vehículos autónomos

play11:02

eliminarán el tráfico pesado en las

play11:04

ciudades y liberarán en el tiempo que

play11:05

usamos para conducir tenemos todas las

play11:07

razones del mundo para adoptar los

play11:09

vehículos pero hay algunos problemas que

play11:10

tenemos que enfrentar en el futuro

play11:11

especialmente mientras pasamos el

play11:14

proceso de cambio con el conductores

play11:15

tanto humanos como autónomos en las

play11:17

calles en un vídeo de ted patrick link

play11:19

plantea el siguiente escenario imagina

play11:21

que viajas en tu vehículo autónomo y de

play11:23

repente una caja grande se cae del

play11:25

camión en frente el automóvil tendrá que

play11:27

tomar una decisión rápida ya sea

play11:29

desviando sea un vehículo diferente o no

play11:31

hacer nada sacrificando la vida de los

play11:32

pasajeros hay varias formas de diseñar

play11:34

el software al adoptar un enfoque

play11:36

utilitario el automóvil podrá analizar

play11:38

quién viaja en nosotros automóviles

play11:40

utilizando los datos en el sistema de

play11:41

carreteras y usándolo para decidir en

play11:43

qué dirección desviar se debe elegir

play11:45

siempre una familia sobre una persona o

play11:47

alguien con un puntaje de crédito más

play11:49

alto obviamente esto plantea algunas

play11:51

preocupaciones y valorar y discriminar a

play11:53

las vidas humanas además de las

play11:54

preocupaciones de privacidad por dejar

play11:56

que el sistema sepa quién viaje en qué

play11:58

vehículo llegando territorio distópico

play12:00

nos lleva de vuelta al problema del

play12:01

tranvía donde tomar tales decisiones

play12:03

siempre termina en alguien perdiendo

play12:05

otra solución a este dilema sería

play12:07

implementar decisiones aleatorias en el

play12:08

diseño simulando la imprevisibilidad

play12:10

humana en estos escenarios de último

play12:12

recurso esto haría que no haya se

play12:14

esbozan los cuales culpar situaciones

play12:16

pero nuevamente genera muchas

play12:17

preocupaciones si tales elecciones

play12:19

pueden decidirse o implementarse de

play12:21

quién es la responsabilidad si fueras un

play12:22

consumidor y tuvieras que elegir entre

play12:24

un auto que prioriza tu vida o la de la

play12:26

mayor cantidad de personas cuál

play12:27

elegirías o deberíamos dejar esta

play12:29

decisión al fabricante confiando en que

play12:31

los algoritmos que ellos decidan siempre

play12:33

tendrán las mejores decisiones este tipo

play12:35

de situaciones también plantea dudas

play12:37

sobre quién es legalmente responsable de

play12:39

los accidentes que involucren vehículos

play12:40

autónomos será el fabricante de los

play12:42

automóviles o las empresas que diseñaron

play12:44

los sensores o quienes diseñaron el

play12:46

software encargado de tomar estas

play12:48

decisiones o incluso podría ser el

play12:50

gobierno local que crea un entorno que

play12:52

no se ajusta a los estándares de estos

play12:53

vehículos como se trata de

play12:55

responsabilidad legal estas preguntas

play12:57

serán exploradas tener una comprensión

play12:59

sólida de estos problemas de estilo

play13:00

tranvía será fundamental para los

play13:02

especialistas de éticas de la tecnología

play13:04

e ingenieros de la guija pero también

play13:06

puede aplicarse a situaciones del día a

play13:08

día estudiar ética y filosofía lleva a

play13:10

tomar mejores decisiones considerando

play13:12

los diferentes caminos que una persona

play13:13

puede tomar ya se ha pegado una serie de

play13:15

principios o tratando de maximizar el

play13:17

resultado final de una situación cómo

play13:19

diseñar esto un vehículo autónomo deja

play13:21

tu respuesta

play13:22

gracias a todos por ver este vídeo si

play13:24

quieren ver más vídeos relacionados con

play13:26

la filosofía de la inteligencia

play13:27

artificial dejen sus comentarios y

play13:29

hágamelo saber también me gustaría que

play13:30

me dieran sugerencias para futuros

play13:32

vídeos y si quieren ver el vídeo

play13:33

original que es la traducción de este en

play13:35

inglés checa otro vídeo tomado mayores

play13:38

que tiene más contenido en inglés y

play13:40

pueden disfrutar más de mis ideas y de

play13:42

cosas en ti que me interesan bastante

play13:43

también pueden seguirme en mis redes

play13:44

sociales como instagram víctor twitter

play13:46

donde hablo más temas relacionados con

play13:48

medio ambiente con filosofía aunque esta

play13:50

tecnología esté filosofía de la guía

play13:52

temas que me interesan bastante y pueden

play13:54

seguirme para ese tipo de contenido así

play13:56

que eso sería todo por hoy gracias por

play13:58

ver el vídeo y nos vemos en el siguiente

Rate This

5.0 / 5 (0 votes)

Étiquettes Connexes
éticafilosofíautilitarismointeligencia artificialimperativos categóricosautos autónomosdecisiones moralesproblema del tranvíaresponsabilidad legaltecnología
Besoin d'un résumé en anglais ?