INTELIGENCIA ARTIFICIAL

Cómo usar bien (intencionadamente) la inteligencia artificial

Un grupo de científicos ha aprobado la Declaración de Barcelona, las primeras recomendaciones sobre un uso “adecuado y ético” de la inteligencia artificial (IA), que propone medidas para evitar los posibles usos maliciosos de los sistemas basados en IA, en cuya aplicación “Europa va rezagada”.

<p>EFE/Georgios Kefalas</p>

EFE/Georgios Kefalas

Expertos en IA se han reunido durante dos días esta semana en Barcelona invitados por B·Debate, una iniciativa de Biocat y la Obra Social “La Caixa”, para que reflexionaran sobre esta nueva tecnología y elaboraran un documento de consenso “para el desarrollo adecuado y utilización de la IA en Europa”.

La IA es una colección de componentes computacionales para construir sistemas que emulan funciones del cerebro humano y comenzó a desarrollarse a mediados de los años 50 del siglo pasado, aunque ha pasado por ciclos de “ilusión, entusiasmo, crítica y duda”, señalan los científicos.

“Actualmente, vemos una fuerte ola de adopción entusiasta de la IA en muchas áreas de la actividad humana”, alertan los expertos, que proponen más inversión y “prudencia, confianza y responsabilidad” a la hora de usarla.

Barcelona sienta las bases

La “Declaración de Barcelona” explica que la IA basada en datos se ha comenzado a aplicar en la última década y funciona con grandes bases de datos procesados mediante algoritmos estadísticos para extraer patrones con los que hacer predicciones o emular un comportamiento humano.

La IA basada en datos requiere usar el Big-Data y una gran potencia informática para alcanzar niveles de rendimiento adecuados.

“El actual aumento repentino de interés y uso de la IA no tiene precedentes. Existe un creciente consenso de que la IA es de gran importancia para el futuro de la economía y el funcionamiento de la sociedad europea”, advierte la declaración.

Por eso, los científicos hacen un llamamiento para que las empresas europeas inviertan en el desarrollo de IA “a una escala acorde al desafío actual y de tal manera que todas las regiones europeas y los ciudadanos puedan beneficiarse”.

Esta inversión, según los autores de la declaración, debe dirigirse a crear “una red de laboratorios de investigación de alto nivel” y a la formación de muchos ingenieros especializados.

“Debido a que muchos de estos recursos son específicos para cada lengua y cultura es imprescindible que Europa invierta en su desarrollo, en hacerlos accesibles y adaptados a todas las regiones. Europa está actualmente rezagada respecto a otras áreas económicas en la inversión en IA, y el momento de dar el gran salto es ahora”, señalan los expertos.

Según los científicos, “el salto hacia adelante en la IA ha sido causado por un desarrollo de las tecnologías, una mayor potencia informática en almacenamiento de datos, la mayor disponibilidad de plataformas de provisión de servicios por Internet y una mayor disposición de muchos actores económicos de llevar dicha tecnología a su propio dominio de aplicación”.

EFE/Sebastian Kahnert

Imagen de la feria de Inteligencia Artificial de Alemania. EFE/Sebastian Kahnert

Los riesgos de la Inteligencia Artificial

Pero avisan que “muchos problemas fundamentales de la inteligencia artificial aún no están resueltos”.

“La aplicación de la IA también exige requisitos muy estrictos, de lo contrario los resultados serán decepcionantes y potencialmente muy perjudiciales”, por lo que piden “la prudencia necesaria”.

“Existe una creciente preocupación por los chat-bots de IA y otros tipos de mensajería automática que operan en Internet y en las redes sociales, diseñados para manipular la opinión política, para propagar hechos falsos, extorsionar u otras formas de actividad maliciosa que pueden llegar a ser peligrosas para los individuos pudiendo desestabilizar nuestra sociedad”, alerta la declaración.

“Estos chat-bots pretenden ser seres humanos y pueden obtener y propagar datos sobre la identidad de las personas con quienes se contacta”, avisan.

La IA ha permitido que estos chat-bots sean lo suficientemente realistas como para que los usuarios confiados no sean capaces de distinguir y sean engañados, por eso los científicos proponen “exigir que siempre esté claro si una interacción proviene de un humano o de un sistema de IA y que, en el caso de un sistema de IA, los responsables de él puedan ser rastreados e identificados”.

Otro problema que vislumbran los expertos es que “el innegable entusiasmo por la IA puede llegar a dar la impresión de que la inteligencia humana ya no es necesaria, llevando a algunas empresas a despedir empleados y reemplazarlos por los sistemas de IA”.

“Éste es un error muy serio. Todos los sistemas de IA dependen críticamente de la inteligencia humana. Es por ello por lo que se debe enfatizar que el conocimiento humano deben continuar siendo enseñado, desarrollado y ejercido”, concluye la declaración. EFE

Etiquetado con: , ,
Publicado en: Internet

lablogosfera-de-efefuturo-300×120-300×131

lablogosfera-de-efefuturo-300x120-300x131

YouTube

Map

gif_EFE_verde_v2300x125

gif_EFE_verde_v2300x125

RSS Feed desconocido

Uso de cookies

Utilizamos cookies propias y de terceros para mejorar nuestros servicios y mostrarle publicidad relacionada con sus preferencias mediante el análisis de sus hábitos de navegación. Si continúa navegando, consideramos que acepta su uso. Puede obtener más información, o bien conocer cómo cambiar la configuración, en nuestra política de cookies, pinche el enlace para mayor información.

Login

Registro | Contraseña perdida?