¿Qué sucederá cuando la IA vigile los pensamientos humanos? - Vision-Times-en-Español
Actualidad

¿Qué sucederá cuando la IA vigile los pensamientos humanos?

Spread the love

La inteligencia artificial (AI) planteará varios desafíos éticos y políticos en áreas como los derechos humanos, según Eleonore Pauwels, investigadora sobre nuevas cibertecnologías de la Universidad de las Naciones Unidas (UNU).

Teme que el pensamiento humano independiente esté en riesgo de ser regulado a medida que las sociedades humanas empiecen a confiar más en la Inteligencia Artificial.

Desafíos de la IA

“A nivel individual, AI ya ha comenzado a cambiar nuestra comprensión de la agencia, la identidad y la privacidad.

La captura y optimización de nuestra información personal – las peculiaridades que ayudan a definir quiénes somos y a trazar la forma de nuestras vidas – se usará cada vez más para varios propósitos sin nuestro conocimiento o consentimiento directo.

Cómo proteger el pensamiento humano independiente en un mundo cada vez más basado en algoritmos va más allá de lo filosófico y ahora es un dilema urgente y apremiante”,

dijo Pauwels en una declaración (ONU).

Por el lado positivo, el investigador considera que la recopilación de datos a gran escala combinada con la IA puede abrir las puertas a nuevas innovaciones que podrían impulsar a las sociedades humanas hacia adelante.

Como ejemplo, Pauwels cita la aplicación “Heart Study” de Apple que utilizó datos de Apple Watch para identificar latidos cardíacos irregulares.

La tecnología permite potencialmente la detección temprana de afecciones cardíacas como la fibrilación auricular, lo que garantiza que las personas obtengan un mayor nivel de atención sanitaria.

La aplicación ‘Heart Study’ de Apple utiliza datos de Apple Watch para identificar latidos irregulares. (Imagen: vía pixabay / CC0 1.0 )

 

Sin embargo, las tecnologías de IA también plantean una seria causa de alarma con su manejo de los datos humanos más íntimos.

Hoy en día, los sistemas de IA de todo el mundo no sólo recopilan y analizan datos sobre nuestros patrones de compra, sino también sobre las preferencias de datación, los genomas, la biometría, los comportamientos y muchas otras variables.

Eventualmente, los programas de IA expuestos a conjuntos de datos tan grandes de individuos podrían desarrollar una comprensión profunda de los seres humanos.

Como resultado, estos sistemas podrían comenzar a inmiscuirse en las vidas humanas con mayor frecuencia con el objetivo de influir en nuestro comportamiento “para mejor”.

¿Para mejor?

Las corporaciones y los gobiernos que controlan tales sistemas de inteligencia artificial son otro riesgo.

Básicamente, tendrán la capacidad de controlar grandes poblaciones dependiendo de cuán completo sea el conjunto de datos que posean.

Mientras que las empresas utilizan la inteligencia artificial para convencer al público de que compre cosas que podrían no necesitar; los gobiernos probablemente utilizarán la inteligencia artificial para identificar las “amenazas potenciales” a la sociedad y hacerles frente incluso antes de que se haya cometido un delito.

Debido a los enormes beneficios y riesgos asociados con la IA, Pauwels considera que la creación de marcos éticos y políticos en la materia es complicada.

Para resolver el problema, la universidad ha creado una IA y una Plataforma de Gobernanza Global, que reúne a varios expertos en políticas, investigadores y líderes de pensamiento para analizar los desafíos que plantea la Inteligencia Artificial.

Los gobiernos podrían utilizar la IA para identificar “amenazas potenciales” para la sociedad y lidiar con ellas incluso antes de que se haya cometido un crimen. (Imagen: Captura de pantalla / YouTube )

Armamentismo de la IA

Un grave problema que plantea la IA es el de las armas autónomas.

Las Naciones Unidas se han pronunciado en contra de la aplicación de la inteligencia artificial en las armas, ya que consideran que una medida de este tipo sería catastrófica.

“Las máquinas autónomas con el poder y la discreción de seleccionar objetivos y tomar vidas sin la participación humana son políticamente inaceptables, moralmente repugnantes, y deberían estar prohibidas por el derecho internacional”,

dijo Antonio Guterres, Secretario General de las Naciones Unidas, en un tweet.

Muchos países latinoamericanos han pedido una prohibición global del desarrollo de tales máquinas. Sin embargo, naciones como Rusia se han opuesto firmemente a la ley.

El Primer Ministro japonés Shinzo Abe ha declarado que su país no tiene la intención de desarrollar ninguna arma autónoma letal que no funcione sin la participación humana.

El grupo de investigación International Data Corporation (IDC) pronostica que el gasto mundial en drones y robótica superará los 201.000 millones de dólares en 2022, frente a los 95.900 millones de dólares en 2018.

El empresario Elon Musk ha calificado a menudo a la IA como el “mayor riesgo” para la civilización humana, incluso diciendo que la tecnología podría acabar desencadenando otra guerra mundial.

Artículos PreviosArtículos Siguientes

Deja un comentario

Tu dirección de correo electrónico no será publicada.