26/04/2024

nada personal, solo información

Controlar el desarrollo de la inteligencia artificial

Manuel Castells, sociólogo y ministro de Universidades ha pedido que se establezca un “control ético” en el desarrollo de la inteligencia artificial y ha advertido de los peligros de sus aplicaciones en el plano militar. “En este momento más que nunca existe la posibilidad tecnológica de deshumanizar la acción militar”, ha asegurado.

El ministro ha inaugurado el curso Repensando los fundamentos de la Inteligencia Artificial, parte de los Cursos de Verano de la Universidad Internacional Menéndez Pelayo (UIMP), que tiene como objetivo reflexionar sobre el proceso de cambio que supone el desarrollo de la inteligencia artificial.

Castells ha asegurado que “las guerras nunca han sido humanas”, pero que “de ahí a extraer toda la humanidad del proceso de confrontación militar hay una gran diferencia”. De este modo, el ministro ha abogado por un “control ético” del desarrollo de la inteligencia artificial. “Sin el componente ético la sociedad rechazará los desarrollos científicos”, ha afirmado.

Sin embargo, el ministro ha destacado que al contrario que otros avances tecnológicos, la inteligencia artificial no ha sido desarrollada por la industria militar y armamentística, sino por el sector de la automoción y en especial gigantes tecnológicos como Google.

Así, el sociólogo ha subrayado las “inmensas aplicaciones” de este tipo de avances en todos los campos humanos. “Será imprescindible en la medicina o la enseñanza”, ha añadido.

Castells ha afirmado que “científicamente hablando”, podríamos asistir por primera vez a máquinas con emociones reales, “más allá de un robot que sonríe”. De acuerdo al sociólogo, la incorporación de las emociones en la toma de decisiones “es lo que diferencia a la inteligencia de las máquinas de la humana”.

“Estamos hablando de la extensión de la mente humana en máquinas automáticas, de la imitación del comportamiento humano”, ha señalado, destacando que las emociones “organizan la decisión racional”.

De este modo, el experto ha considerado que la barrera emocional “evita que el programa evolucione al nivel superior de capacidad de decisión”, y ha afirmado que para lograr esta situación “tiene que haber interacción y comunicación, un diálogo entre las ramas de la ciencia y tecnología”.

Scroll al inicio