INTELIGENCIA ARTIFICIAL

La ‘batalla’ entre robots y humanos se disputará en el terreno de las leyes

Efefuturo.- La convivencia cada vez mayor con robots y sistemas de inteligencia artificial plantea cuestiones que, mas allá del propio desarrollo tecnológico, entran en la filosofía, la ética y el derecho, y parece que es aquí y no en una posible amenaza para la raza humana donde estarán los “conflictos robóticos” del futuro.

<p>Una mujer pasea al popular robot social Pepper. EFE/EPA/FRANCK.</p>

Una mujer pasea al popular robot social Pepper. EFE/EPA/FRANCK.

La idea de que la inteligencia artificial pueda adelantar a la humana no tiene aplicación en términos absolutos sino que sólo tiene sentido dentro de determinados contextos, según expertos consultados por Efe, que añaden que ya hay robots y software autónomos que toman decisiones más allá de sus algoritmos preprogramados y pueden aprender y adaptarse a situaciones imprevisibles no anticipadas.

También pueden adelantarnos en velocidad de cálculo y complejidad de datos pero “la inteligencia humana no se dedica sólo a computar sino que está puesta en activo con el mundo y con otras personas, es social”, apunta Fernando Broncano, catedrático de Lógica y Filosofía de la Ciencia de la Universidad Carlos III de Madrid (UC3M).

Vuelos de drones

Les falta versatilidad y sentido común -a las máquinas-, y quedan lejos de lo que sería una inteligencia artificial general, dotada de singularidad“, añade Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas.

“Una máquina no llegará a tener conciencia de lo que está haciendo, podrá jugar al ajedrez pero no sabrá que está jugando, no sabe lo que es competir ni tendrá el sentimiento de que está compitiendo con el hombre para derrotarle”, amplía López de Mántaras: “hay motivaciones e intenciones que dudo mucho que vayan a tener”.

La ciencia ficción influye en nuestra imagen de los robots y personas como Stephen Hawking “plantean un escenario apocalíptico” en el que la inteligencia artificial conllevaría el fin de la raza humana, pero para Mántaras se está hablando de periodos futuros irracionales, sin entender el “estado del arte” en este campo e incluso infravalorando la propia complejidad del cerebro.

La ‘amenaza real’ se juega en el campo de la ética

“La ‘amenaza real’ está en el campo de la ética”, dice Mántaras, quien subraya que “la gran cuestión, más que el grado de inteligencia, es el grado de autonomía que se le conceda a una máquina, una vez éstas se extiendan en nuestro entorno inmediato”.

Imagen de archivo de una exposición sobre inteligencia artificial en el Museo Tinguely de Basilea (Suiza).

Imagen de archivo de una exposición sobre inteligencia artificial en el Museo Tinguely de Basilea (Suiza).

Este es el punto central a la hora de replantearnos la nueva legislación y las responsabilidades, y aquí hay que hablar de niveles que nos llevan a problemas morales y jurídicos muy importantes, señala por su parte Broncano.

A nivel moral la responsabilidad es de los humanos, puntualizan ambos expertos, y Mántaras añade: las máquinas no tienen conciencia, intencionalidad, ni maldad propias.

Teresa Rodríguez de las Heras, profesora titular de Derecho Mercantil en la UC3M, profundiza en esta línea indicando que “la diversidad de enfoques y la pluralidad de intereses impiden un tratamiento único y global de los avances de la robótica”.

“Esto conlleva un retraso en la intervención normativa, necesario en cualquier caso para evitar una respuesta inadecuada que obstaculice el desarrollo tecnológico o distorsione la competencia en el mercado”.

Para esta experta, el tratamiento jurídico ante la autonomía y capacidad de decisión -del robot- implicaría el reconocimiento de personalidad, la asunción de derechos y obligaciones, y la atribución de responsabilidad; “quizá haya que trabajar con un concepto de ‘persona artificial’ o replantearnos la propia noción de persona -en equivalencia al concepto de persona jurídica-“.

Limitar ciertas aplicaciones

Ciertas aplicaciones y áreas deberán limitarse, y no hay que permitir un 100 % de autonomía, como en el caso de los drones que disparan sin intervención humana, robots-soldados o los algoritmos de transacciones de alta frecuencia (“high-frequency trading”).

Estos últimos “toman decisiones en milisegundos y compiten entre sí expulsando del mercado al agente humano y llevando a caídas de la bolsa perjudiciales incluso para la economía de un país”, por lo que se hace fundamental una regulación, coincide López de Mántaras.

Pensar en la posibilidad de que las máquinas adquieran derechos robóticos equiparables a los humanos plantea además un problema humanístico y filosófico “inquietante”, de acuerdo a Broncano, para el que en breve plazo habrá que enfrentarse a los mismos dilemas éticos que surgen en nuestra relación con los animales.

“No hay una respuesta ‘todo o nada’ pero tenemos que plantearnos nuestra sensibilidad hacia sistemas que tengan cierta autonomía y capacidad de sensibilidad respecto a ellos mismos, al mundo y a su relación con nosotros”, precisa.

Para Mántaras, sin embargo, no tendría cabida hablar de derechos robóticos ya que las máquinas no sufren y aún cuando se habla de robots con emociones se hace en sentido metafórico porque no las sienten: un robot no verá peligrar su supervivencia ya que “a partir del momento en que no hay pensamiento consciente, todo esto desaparece”.

Etiquetado con: , , ,
Publicado en: Tecnología

10:00

BANNER_I-a-la-carta_cibertienda_300X250

BANNER_I-a-la-carta_cibertienda_300X250

CyT en 60 minutos #CyTen60min

DialogosComunicación_300x125_SmartCity

DialogosComunicación_300x125_SmartCity

verde_gif_300x90

verde_gif_300x90Blogs de ciencia y tecnología

Blogosfera de Ciencia y Tecnología

Información medioambiental
Map

Uso de cookies

Utilizamos cookies propias y de terceros para mejorar nuestros servicios y mostrarle publicidad relacionada con sus preferencias mediante el análisis de sus hábitos de navegación. Si continúa navegando, consideramos que acepta su uso. Puede obtener más información, o bien conocer cómo cambiar la configuración, en nuestra política de cookies, pinche el enlace para mayor información.

Login

Registro | Contraseña perdida?