La algor-etica puede salvar a la humanidad de la inteligencia artificial

Compartir artículo
EN RESUMEN
  • El algoritmo de la inteligencia artificial no puede dañar a personas o empresas.

  • La autonomía humana viene siempre ligada a la responsabilidad de las personas que crean la tecnología.

  • Automático versus autónomo.

  • promo

    ApeCoin está en auge. Comienza a operar con CFD en ApeCoin, ¡el nuevo proyecto cripto más popular!Negocia ahora

El Trust Project es un consorcio internacional de organizaciones de noticias que establecen un estandar de transparencia.

“Que la Palabra y la Tradición de la fe nos ayuden a interpretar los fenómenos de nuestro mundo. La algor-ética puede ser un puente para inscribir los principios de la Doctrina Social de la Iglesia en las tecnologías digitales.” (Papa Francisco).

El filósofo Nick Bostrom, sostiene que una inteligencia artificial (IA) avanzada podría tener la capacidad de provocar la extinción humana, ya que sus planes pueden no implicar tendencias motivacionales humanas. No obstante, Bostrom también plantea la situación contraria en la que una super inteligencia podría ayudarnos a resolver problemas tediosos y constantes en la humanidad, tales como la pobreza, la enfermedad o la destrucción del planeta. 

Es importante la paradoja de Bostrom que habla del “efecto perverso”. Para explicar dicho efecto utiliza el mito del Rey Midas al desear convertir todo lo que toque en oro. Toca un árbol y se convierte en oro, incluso su propia comida. Por ello, es importante que la IA pueda traspolar las intenciones que tenemos sin caer en el efecto perverso, más allá del efecto anti-ético. Bostrom, es muy tajante ante el asunto:

Debemos ser capaces de saber como controlar la Inteligencia Artificial

Al incorporar la IA a los procesos de las organizaciones, es importante dotar a esta nueva tecnología de valores y principios. El afamado Stephen Hawking observa a IA como el elemento que cambiará nuestra trayectoria en nuestra evolución:

Cada aspecto de nuestras vidas será transformado [por AI], y podría ser el evento más grande en la historia de nuestra civilización.

La problemática planteada se está materializando en la Asociación sobre Inteligencia Artificial, creada por Elon Musk y Sam Altman, en la que se invita a los principales líderes tecnológicos para poder identificar dilemas éticos y prejuicios. 

Privacidad

En tiempos actuales muchas compañías están comenzando a formar a las personas (quienes a su vez están formando a las máquinas), en prácticas éticas aplicadas a los algoritmos que rigen la inteligencia artificial. 

La gestión del aprendizaje de la inteligencia artificial es lo que actualmente conocemos como machine learning, el cual debe contener principios universales de respeto, libertad e igualdad. 

La preocupación ética por la creación de nuevos tipos de inteligencia requiere de un exquisito criterio moral de las personas que diseñan estas nuevas formas de tecnología. El algoritmo ha de ser capaz de discernir y reconocer fallos cuando se centran en acciones sociales con repercusión que antes realizaba un ser humano.

El algoritmo de la inteligencia artificial no puede dañar a personas o empresas

Las grandes organizaciones, empresas y gobiernos están centrándose en los problemas que pueden surgir en el tema de la ética de la inteligencia artificial para trazar consideraciones, prácticas y marcos comunes de cara al futuro. 

En el intento de que la IA logre replicar la inteligencia humana tenemos un debate abierto entre los expertos en IA, científicos y filósofos, sobre la existencia de múltiples definiciones de inteligencia, dando lugar a diversas maneras de concebir la naturaleza y sobre todo el propósito de la IA. 

Inteligencia artificial

El campo de la ética se extiende allá donde encuentra agentes dotados de autonomía e inteligencia, es decir, sujetos capaces de tomar decisiones y actuar de forma racional. En este sentido, el término “autonomía” suele emplearse en este contexto para designar la capacidad de escoger un curso de acción de forma libre, capacidad que tradicionalmente se ha identificado como un rasgo distintivo y exclusivo de los seres humanos (European Group on Ethics in Science and New Technologies, 2018). 

Esta autonomía no ha de ser confundida con la capacidad que presentan otros seres vivos de dirigir sus actos. 

La autonomía humana viene siempre ligada a la responsabilidad: las personas, al ser capaces de dar cuenta de sus propios motivos y razones, responden también por ello ante los actos y decisiones tomadas.

A la vista de estas consideraciones, emplear el término “autónomo” para referirse a los dispositivos provistos de IA puede llevar a confusión. Se suele afirmar que muchas de las aplicaciones, sistemas y máquinas dotados de IA son capaces de operar de forma “autónoma”, es decir, de realizar operaciones y procesos por sí mismos. Sin embargo, puesto que hasta la fecha ningún sistema o artefacto inteligente es capaz de dar cuenta de sus propios actos y decisiones de la manera en la que las personas son capaces, resulta erróneo calificar a estos dispositivos de autónomos en el sentido ético de la palabra. 

Es cierto que en el ámbito tecnológico ha proliferado el uso de dicho término para referirse simplemente a aplicaciones capaces de operar sin supervisión humana, pero, desde el punto de vista del análisis ético, el término adecuado para referirse a estos dispositivos sería “automático”, no “autónomo”

Con todo, la existencia de aplicaciones capaces de tomar distintos cursos de acción por sí mismas no deja de plantear algunas dudas sobre la creencia de que solo los seres humanos son capaces de actuar de forma autónoma.

Descargo de responsabilidad

Toda la información contenida en nuestro sitio web se publica con buena fe y sólo con fines de información general. Cualquier acción que el lector tome sobre la información encontrada en nuestro sitio web es estrictamente bajo su propio riesgo.
Share Article

Escribano Público Titular del Registro 706 de Córdoba Capital, República Argentina. Abogado y Doctorando en Ciencias de la Educación en UCC. Director de la Sala Blockchain e Inteligencia Artificial del Instituto de Gestión en Sistemas de Justicia de la Facultad de Derecho y Ciencias Sociales de la Universidad Católica de Córdoba, Argentina (UCC). Director de la Revista Blockchain e Inteligencia Artificial de UCC indexada en bases de datos internacionales. Profesor de la Escuela de Abogados del Estado de la Fiscalía de Estado de la Provincia de Córdoba.

SEGUIR AL AUTOR

Gane hasta un 30% de recompensa de stake en cualquier momento con nuestra aplicación móvil.

Instalar ahora

Crypto.com DeFi Wallet - Manage 400+ tokens, earn interest, and more      

Install

Crypto.com DeFi Wallet - Manage 400+ tokens, earn interest, and more      

Install