“Que la Palabra y la Tradición de la fe nos ayuden a interpretar los fenómenos de nuestro mundo. La algor-ética puede ser un puente para inscribir los principios de la Doctrina Social de la Iglesia en las tecnologías digitales.” (Papa Francisco).
El filósofo Nick Bostrom, sostiene que una inteligencia artificial (IA) avanzada podría tener la capacidad de provocar la extinción humana, ya que sus planes pueden no implicar tendencias motivacionales humanas. No obstante, Bostrom también plantea la situación contraria en la que una super inteligencia podría ayudarnos a resolver problemas tediosos y constantes en la humanidad, tales como la pobreza, la enfermedad o la destrucción del planeta.
Es importante la paradoja de Bostrom que habla del “efecto perverso”. Para explicar dicho efecto utiliza el mito del Rey Midas al desear convertir todo lo que toque en oro. Toca un árbol y se convierte en oro, incluso su propia comida. Por ello, es importante que la IA pueda traspolar las intenciones que tenemos sin caer en el efecto perverso, más allá del efecto anti-ético. Bostrom, es muy tajante ante el asunto:
Debemos ser capaces de saber como controlar la Inteligencia Artificial
Al incorporar la IA a los procesos de las organizaciones, es importante dotar a esta nueva tecnología de valores y principios. El afamado Stephen Hawking observa a IA como el elemento que cambiará nuestra trayectoria en nuestra evolución:
Cada aspecto de nuestras vidas será transformado [por AI], y podría ser el evento más grande en la historia de nuestra civilización.
La problemática planteada se está materializando en la Asociación sobre Inteligencia Artificial, creada por Elon Musk y Sam Altman, en la que se invita a los principales líderes tecnológicos para poder identificar dilemas éticos y prejuicios.
En tiempos actuales muchas compañías están comenzando a formar a las personas (quienes a su vez están formando a las máquinas), en prácticas éticas aplicadas a los algoritmos que rigen la inteligencia artificial.
La gestión del aprendizaje de la inteligencia artificial es lo que actualmente conocemos como machine learning, el cual debe contener principios universales de respeto, libertad e igualdad.
La preocupación ética por la creación de nuevos tipos de inteligencia requiere de un exquisito criterio moral de las personas que diseñan estas nuevas formas de tecnología. El algoritmo ha de ser capaz de discernir y reconocer fallos cuando se centran en acciones sociales con repercusión que antes realizaba un ser humano.
El algoritmo de la inteligencia artificial no puede dañar a personas o empresas
Las grandes organizaciones, empresas y gobiernos están centrándose en los problemas que pueden surgir en el tema de la ética de la inteligencia artificial para trazar consideraciones, prácticas y marcos comunes de cara al futuro.
En el intento de que la IA logre replicar la inteligencia humana tenemos un debate abierto entre los expertos en IA, científicos y filósofos, sobre la existencia de múltiples definiciones de inteligencia, dando lugar a diversas maneras de concebir la naturaleza y sobre todo el propósito de la IA.
El campo de la ética se extiende allá donde encuentra agentes dotados de autonomía e inteligencia, es decir, sujetos capaces de tomar decisiones y actuar de forma racional. En este sentido, el término “autonomía” suele emplearse en este contexto para designar la capacidad de escoger un curso de acción de forma libre, capacidad que tradicionalmente se ha identificado como un rasgo distintivo y exclusivo de los seres humanos (European Group on Ethics in Science and New Technologies, 2018).
Esta autonomía no ha de ser confundida con la capacidad que presentan otros seres vivos de dirigir sus actos.
La autonomía humana viene siempre ligada a la responsabilidad: las personas, al ser capaces de dar cuenta de sus propios motivos y razones, responden también por ello ante los actos y decisiones tomadas.
A la vista de estas consideraciones, emplear el término “autónomo” para referirse a los dispositivos provistos de IA puede llevar a confusión. Se suele afirmar que muchas de las aplicaciones, sistemas y máquinas dotados de IA son capaces de operar de forma “autónoma”, es decir, de realizar operaciones y procesos por sí mismos. Sin embargo, puesto que hasta la fecha ningún sistema o artefacto inteligente es capaz de dar cuenta de sus propios actos y decisiones de la manera en la que las personas son capaces, resulta erróneo calificar a estos dispositivos de autónomos en el sentido ético de la palabra.
Es cierto que en el ámbito tecnológico ha proliferado el uso de dicho término para referirse simplemente a aplicaciones capaces de operar sin supervisión humana, pero, desde el punto de vista del análisis ético, el término adecuado para referirse a estos dispositivos sería “automático”, no “autónomo”.
Con todo, la existencia de aplicaciones capaces de tomar distintos cursos de acción por sí mismas no deja de plantear algunas dudas sobre la creencia de que solo los seres humanos son capaces de actuar de forma autónoma.
Descargo de responsabilidad
Descargo de responsabilidad: De conformidad con las pautas de Trust Project, este artículo de opinión presenta la perspectiva del autor y puede no reflejar necesariamente los puntos de vista de BeInCrypto. BeInCrypto sigue comprometido con la transparencia de los informes y la defensa de los más altos estándares periodísticos. Se recomienda a los lectores que verifiquen la información de forma independiente y consulten con un profesional antes de tomar decisiones basadas en este contenido.