Estado Filosófico: Libre Albedrío

El hombre contra la máquina. Es uno de los mayores desafíos de la industria de la automoción en las últimas décadas pero su avance se encuentra, aún, en una fase muy experimental. El coche autónomo tardará, al menos, cuatro años más en rodar de una manera más solvente, según las empresas implicadas. Mientras tanto, continúan las pruebas. Pionera en este campo, Alphabet (Google) ha asumido este lunes «parcialmente la responsabilidad» después de que uno de sus vehículos autopilotados chocara contra un autobús.

Registrado el pasado 14 de febrero, este accidente menor, sin embargo, es el primer caso en el que está implicado un coche autónomo contra otro vehículo, produciéndose, además, una pequeña avería. El suceso tuvo lugar en Mountain View -sede de la empresa- cuando un modelo Lexus RX345h circulaba por una zona recubierta de arena. Al intentar esquivar las zonas abordó el carril ocupado por el autobús, que circulaba a una velocidad de 24 kilómetros por hora, mientras que el vehículo circulaba a 3 kilómetros por hora.

La firma norteamericana ha reconocido que el sistema informático que permite la conducción autónoma previó que el bus iba a aminorar la marcha para permitir que el coche continuara. Tres segundos más tarde, según detalla la agencia Reuters el coche golpeó el lateral, causando daños en el guardabarros delantero izquierdo, la rueda delantera y un sensor ubicado en el lado del conductor. Los 15 pasajeros tuvieron que ser trasladados a otro transporte.

Tras el suceso, el gigante de internet ya ha introducido diversas modificaciones en el software instalado en los modelos de prueba en aras de evitar futuros incidentes. «A partir de ahora, nuestros coches entienden más profundamente que los autobuses son menos propensos a ceder el paso que otros tipos de vehículos».

Google ha explicado en un comunicado que «tiene parcialmente la responsabilidad» porque si el coche no se hubiera movido no se hubiera producido la colisión. Hasta ahora, Google no había reconocido la responsabilidad en ningún percance. Durante el periodo de pruebas el Google Car ha estado involucrado en, al menos, 18 accidentes. La Autoridad de Transporte investigará las circunstancias del accidente.”

Análisis

La noticia mostrada anteriormente apela a una realidad que hoy en día resulta cada vez más presente: “el hombre contra la máquina”. En dicha noticia se explica cómo uno de los nuevos modelos de coches autónomos de Google, los cuales circulan sin la presencia de un conductor, tuvo un accidente al impactar contra un autobús. El gigante de Internet declaró su aceptación parcial de la culpa, pero opina que fue un fallo del software integrado en el vehículo. A lo largo de este siglo, esta clase de accidentes se harán cada vez más frecuentes debido a la automatización de prácticamente todos los dispositivos, y cada vez serán más los dilemas éticos referentes a estos inventos. El quid de la cuestión es simple: ¿En qué medida se puede afirmar que las máquinas toman decisiones y la responsabilidad de sus acciones?

En primer lugar hablaremos sobre el concepto de libre albedrío, entendido como la capacidad de decidir sobre los propios actos. La existencia de esta libertad ha sido tema de debate filosófico durante siglos, desencadenando la presencia de dos corrientes filosóficas principales diferentes: el determinismo que, según Guy Williams, sostiene que cada situación tiene unas causas definidas y está determinada desde un inicio, y el libertarismo, que defiende la libertad propia del ser humano, el cual es capaz de tomar decisiones acerca de su vida. Dentro del libertarismo, existe el indeterminismo, una variante de esta corriente que defiende que el libre albedrío realmente existe, y esa libertad hace que las acciones sean un efecto sin causa. Basándonos en estas definiciones, se nos plantea otra cuestión: ¿somos los humanos capaces de decidir nuestro destino y, en consecuencia, el destino de nuestras creaciones?

Baruch Spinoza comparó la creencia del hombre en el libre albedrío con una piedra que piensa que escogió el sendero al cual llegó por el aire y el lugar en el cual aterrizó. En la Ética escribió: ‘Las decisiones de la mente no son nada salvo deseos, que varían según varias disposiciones puntuales’. ‘No hay en la mente un absoluto libre albedrío, pero la mente es determinada por el desear esto o aquello, por una causa determinada a su vez por otra causa, y ésta a su vez por otra causa, y así hasta el infinito.’ (Will, 2006) ‘Los Hombres se equivocan al creerse libres, opinión que obedece al solo hecho de que son conscientes de sus acciones e ignorantes de las causas que las determinan.’ (Spinoza, 1980)

Según el argumento de Spinoza, los humanos no seríamos capaces de escoger nuestro camino, siendo así objetos del “destino” o de los “Dioses”. Este argumento, pero, entra en conflicto con uno de los conceptos de suma importancia en nuestro estudio: el concepto de responsabilidad moral. En la sociedad generalmente se hace a la gente responsable por sus acciones y se cree que deben ser premiados o castigados en consecuencia de dichas acciones. Sin embargo, para que esta responsabilidad exista, se requiere el libre albedrío; en otras palabras, la habilidad de tomar distintas alternativas. En este punto entra en juego otra postura filosófica: la compatibilidad entre el determinismo y el libre albedrío: el determinismo suave.

Los compatibilistas definen que el libre albedrío surge en el exterior de un universo determinista aún en ausencia de incertidumbre metafísica. Argumentan con frecuencia que el determinismo es un prerrequisito para la responsabilidad moral — la sociedad no puede considerar a alguien responsable de algún hecho a menos que sus acciones sean determinadas por algo. Según Hume (principal exponente de esta corriente), el libre albedrío no se debe entender como una capacidad absoluta para haber elegido desigualmente bajo exactamente las mismas circunstancias internas y externas (Colomina, 2007). Más bien, es una capacidad hipotética de haber elegido desigualmente, donde esta habría sido dispuesta de manera heterogénea psicológicamente por algunas creencias diversas o deseos. Hume defiende acérrimamente la idea compatibilista de la necesidad de determinación de los actos, a pesar del libre albedrío. Aquí nos encontramos con una gran errata de la teoría indeterminista frente nuestra sociedad actual: si el indeterminismo es cierto, los eventos no son determinados: son al azar. A mi parecer, es difícil definir si actos que han surgido espontáneamente del sistema nervioso de una persona pueden ser castigados o premiados. Se podría considerar, entonces que la toma de responsabilidad frente a los actos está intrínsecamente relacionada con el libre albedrío y, en consecuencia, con la cuestión que ocupa este ensayo.

Llegados a este punto, podemos empezar a relacionar los seres humanos con sus creaciones. Desde los principios de los tiempos, los humanos hemos sido capaces de fabricar objetos artificiales a partir de lo que nos rodea. Hoy en día, prácticamente todo lo que vemos ha sido procesado o modificado de un modo u otro por algún ser humano. Asimismo, después de la revolución industrial estas modificaciones han ido siendo cada vez más notables, hasta llegar al punto de la creación de artefactos programados para acarrear con nuestras tareas diarias y, si se tercia, tomar decisiones por nosotros, como es el caso del coche autónomo. Este aparato, pero, no posee una conciencia, sino que está dirigido por un software especialmente diseñado para tomar la mejor decisión posible en la conducción. De hecho, ante los que dudaban de este sistema de conducción que carece de conductor (es decir, del control directo humano), Google ha alegado repetidas veces que su dispositivo es mucho más seguro que un coche normal, ya que no hay factores externos que condicionen la decisión de este(como drogas, cansancio, etc.). A partir de estos datos, se nos plantean varios interrogantes filosóficos que vamos a analizar a continuación.

En primer lugar, nos encontramos con el problema de la toma de decisiones. Como hemos aclarado antes, la toma de decisiones y, por tanto, la toma de responsabilidad frente a estas, sucede siempre en base al libre albedrío, pero esta cualidad sólo forma parte de los seres humanos, ya que, en una situación donde las condiciones son idénticas, es el único capaz de tomar una decisión adecuada, como simboliza el Asno de Buridán (asno que protagoniza un argumento del filósofo Aristóteles, donde se demuestra que un perro/asno equidistante a dos montes de heno iguales moriría de hambre a causa de su indecisión) (Cela, 1983). De manera que la toma de decisiones por parte de un objeto artificial parece imposible. Podríamos considerar, entonces, que las decisiones tomadas por un objeto no son más que el resultado de las decisiones que habría tomado su creador y, por tanto, la responsabilidad de estas recae en dicho creador.

Esta sentencia, que podemos considerar como la más lógica e obvia, resulta contrariada si pensamos, por ejemplo, en la novela de Mary Shelley Frankenstein, donde el creador de “la criatura” no se hace responsable de las decisiones que esta tome, siendo completamente ajenas a él. Bien es cierto que en ese caso el “objeto artificial” desarrolla una consciencia, pero en cuanto a la base se puede asimilar perfectamente al coche autónomo. En el caso que nos ocupa, la empresa Google (el creador del automóvil) no ha asumido la culpa total del accidente debido a que consideran que ha sido un simple error de cálculo en el software. El software (al que podríamos denominar erróneamente “conciencia artificial”), pero, fue creado por la empresa, de manera que, siguiendo la premisa mencionada en el párrafo anterior, la culpa íntegra fue del creador del software, es decir, de la empresa. Sin embargo, en este caso, sucede lo mismo que en la novela de terror: la culpa recae indirectamente sobre el objeto artificial. Hecho que, a mi parecer, no es del todo procedente ya que, si consideramos que las decisiones son tomadas por el vehículo, estas están íntegramente condicionadas por las ideas y emociones de su creador, debido a la inexistencia de discernimiento procedente de la máquina.

No obstante, cabe remarcar que la falta de factores externos (como la religión, las emociones, la edad…) propias del ser humano puede denotar una mejora en la toma de decisiones, siendo el vehículo así considerado de nuevo conductor de una “conciencia artificial”. Friedrich Schiller propuso una idea en su Educación estética del Hombre en una serie de Cartas, que fue ahondada aún más por Rudolf Steiner en su Filosofía de la Libertad. Ambos sugieren que el individuo es inicialmente “no libre”; esto se debe a que el individuo actúa con base en principios religiosos, éticos y morales, o que aún son racionales (Schiller, 2018) (Steiner, 2002). La inexistencia de estos principios en una máquina permite que las decisiones sean tomadas íntegramente en base a datos calculables, de manera que, teóricamente, deberían ser más fiables que las decisiones tomadas por un ser humano, dicho de otra manera, inhumanas y, por lo tanto, la responsabilidad de estas debería recaer en el dispositivo. Empero, el problema sigue siendo el mismo: la falta de conciencia del automóvil. ¿Cómo puedes culpar a un objeto de una acción para la que ha sido diseñado? Si, por ejemplo, el vehículo tuviera que decidir entre matar a un viandante o a la persona que está transportando (o sea, el ser humano situado en el interior del artilugio), este debería escoger basándose en las probabilidades de sobrevivir de ambas personas, tomando así una supuesta decisión “objetiva” pero completamente carecida de valores morales. En ese caso, ¿cómo se podría culpar al artificio?

Conclusión

En conclusión, podemos decretar que la toma de decisiones por parte de las máquinas es posible, pero dicha toma nunca puede ser considerada como relevante debido a la falta de conciencia del artefacto. Las decisiones tomadas por un dispositivo siempre deben ser coadyuvadas por el creador de este, que deberá acarrear con las responsabilidades que dichas decisiones comporten. Si comprendemos cuales son las repercusiones de nuestras creaciones, podremos mejorar: tanto nuestro mundo, como la raza humana.

Bibliografía

  1. Cela, C. (1983). El asno de Buridán. El País, Artículo digital.
  2. Colomina, J. & Raga, V. (2007). Algunas observaciones sobre la atribución de la responsabilidad (moral) de nuestras acciones. Límite. Revista Interdisciplinaria de Filosofía y Psicología, 2 (15), 61-80.
  3. Schiller, F. (2018). Cartas sobre la educación estética de la humanidad. Barcelona: Acantilado.
  4. Spinoza B. (1980). De la naturaleza y origen del alma. En Ética demostrada según el orden geométrico(p. 102). Madrid: Ediciones Orbis S.A..
  5. Steiner, R. (2002). La filosofía de la libertad. Madrid: Rudolf Steiner.
  6. Will D. (2006). The Ethics (Matter and Mind). En The Story of Philosophy(p. 228). New York: Pocket Books.
  7. Williams G., Le Nezet N., White C. & Lee D. (2015). Freedom and Determinism. En IB Philosophy Being Human Course Book: Oxford IB Diploma Program(p.265). Oxford: Oxford University Press.
  8. MATERIAL NO FILOSÓFICO (ARTÍCULO):
  9. Sánchez, J. (2017). Primer accidente del coche autónomo de Google. 25/09/2017, de ABC Sitio web: https://www.abc.es/tecnologia/informatica/soluciones/abci-primer-accidente-coche-autonomo-google-201603011107_noticia.html
01 August 2022
close
Tu email

Haciendo clic en “Enviar”, estás de acuerdo con nuestros Términos de Servicio y  Estatutos de Privacidad. Te enviaremos ocasionalmente emails relacionados con tu cuenta.

close thanks-icon
¡Gracias!

Su muestra de ensayo ha sido enviada.

Ordenar ahora

Utilizamos cookies para brindarte la mejor experiencia posible. Al continuar, asumiremos que estás de acuerdo con nuestra política de cookies.