Ética en la inteligencia artificial

publicado en: Blog, Noticias | 0
El propósito último de la inteligencia artificial, lograr que una máquina posea una inteligencia de tipo general similar a la humana, es uno de los objetivos más ambiciosos que se ha planteado la ciencia. Por su dificultad, es equiparable a otros grandes retos científicos, como explicar el origen de la vida o del universo, o conocer la estructura de la materia. El principal problema al que se enfrenta la inteligencia artificial es la adquisición de conocimientos de sentido común. Este constituye el requisito fundamental para que las máquinas actuales sustituyan la inteligencia artificial especializada por una de tipo general.

Un enfoque interesante para dotar de sentido común a las máquinas es la denominada cognición situada. Consiste en ubicar a las máquinas en entornos reales con el fin de que tengan experiencias que les doten de sentido común mediante aprendizaje basado en el desarrollo mental. La cognición situada requiere que la inteligencia artificial forme parte de un cuerpo. Este resulta determinante para la inteligencia, ya que los sistemas perceptivo y motor definen lo que un agente puede observar y las interacciones que establece con su entorno.

Precisamente las capacidades más complicadas de desarrollar son las que requieren interaccionar con entornos no restringidos: percepción visual, comprensión del lenguaje, razonamiento con sentido común y toma de decisiones a partir de información incompleta. Diseñar sistemas con estas capacidades exige integrar desarrollos en muchas áreas de la inteligencia artificial. En particular, necesitamos lenguajes de representación de conocimientos que codifiquen información sobre numerosos tipos de objetos, situaciones, acciones, así como sobre sus propiedades y las relaciones entre ellos. También nos hacen falta nuevos algoritmos que, partiendo de estas representaciones, puedan razonar y aprender de forma robusta y eficiente sobre prácticamente cualquier tema.

A pesar de todas esas dificultades, las tecnologías basadas en la inteligencia artificial ya están empezado a cambiar nuestras vidas en aspectos como la salud, la seguridad, la productividad o el ocio, y a medio plazo van a tener un gran impacto en la energía, el transporte, la educación y las actividades domésticas. No obstante, por muy inteligentes que lleguen a ser las futuras inteligencias artificiales, siempre serán distintas a las humanas debido a lo determinantes que resultan los cuerpos en los que se ubican. Además, el hecho de ser ajenas a los valores y necesidades humanas nos debería hacer reflexionar sobre aspectos éticos en el desarrollo de la inteligencia artificial y, en particular, sobre la conveniencia de dotar de total autonomía a las máquinas.

Estos aspectos científicos y éticos motivaron un debate el pasado 8 de marzo de 2017, organizado por la fundación Biocat, con el apoyo de la Obra Social la Caixa de Barcelona, y en el que participaron distintos expertos europeos en inteligencia artificial, computación y comunicación, entre otros ámbitos. El debate dio lugar a la «Declaración de Barcelona para un desarrollo y uso adecuados de la inteligencia artificial en Europa».

El documento destaca seis puntos en el desarrollo y el uso de la inteligencia artifical. El primero es la prudencia, la necesidad de ser conscientes de que todavía queda por resolver un gran número de obstáculos científicos y técnicos, en particular el problema del sentido común. El segundo hace referencia a la fiabilidad, esto es, que los sistemas de inteligencia artificial deben someterse a pruebas que determinen su fiabilidad y seguridad. Otro aspecto es la rendición de cuentas: cuando un sistema toma decisiones, las personas afectadas por ellas tienen que poder recibir, en unos términos de lenguaje que entiendan, una explicación de por qué las ha tomado, y tienen que poder cuestionarlas con argumentos razonados. Se apunta también al criterio de responsabilidad. Debe quedar claro si la interacción se hace con una persona o con un sistema de inteligencia artificial, y, en el segundo caso, debe poderse localizar e identificar a los responsables de él. Otra cuestión es la autonomía limitada de estos sistemas. Se necesita disponer de reglas claras que limiten el comportamiento de los sistemas de inteligencia artificial autónomos para que los encargados de desarrollarlos puedan incorporarlos en sus aplicaciones. Y, por último, debe quedar claro el papel que desempeña el ser humano. En casi cualquier área, la capacidad humana todavía supera con creces la inteligencia artificial, especialmente en el tratamiento de casos que no han aparecido en los conjuntos de datos de ejemplo de los que aprenden los sistemas de inteligencia artificial

Todos los interesados en que se siga este código de conducta pueden leer y firmar la declaración en www.iiia.csic.es/barcelonadeclaration

https://www.investigacionyciencia.es/revistas/investigacion-y-ciencia/el-multiverso-cuntico-711/tica-en-la-inteligencia-artificial-15492

Dejar una opinión

Debe estar conectado para escribir un comentario.