Diario de Ibiza

Diario de Ibiza

Contenido exclusivo para suscriptores digitales

Polémica

¿Pueden las máquinas tener conciencia? Los expertos responden a la polémica de Google

Académicos y científicos rechazan que la Inteligencia Artificial (IA), cada vez más compleja, pueda por ahora experimentar "nuevos sentimientos" y alertan de los peligros que supone humanizar esos sistemas

En España la densidad de robots en las fábricas supera las tasas europea y mundial.

Frustrado emocionalmente porque el amor de su vida le ha pedido el divorcio, Theodore Twombly decide comprarse un asistente virtual con Inteligencia Artificial (IA) que le haga compañía. Al cabo de pocos días, la fascinación y el aprendizaje es tal, que el introvertido joven se enamora y empieza una relación de amor con su sistema operativo, al que se refiere con el nombre de Samantha.

Aunque se trata de una ficción, hay quien piensa que premisas como esta, de la película ‘Her’ (2013), no están tan lejos de convertirse en una realidad. De la distopía cyberpunk de Philip K. Dick al tecnofuturismo más amable estilizado por el cineasta Spike Jonze, la literatura y el cine del último siglo han recurrido a fantasear sobre una preocupación que toma cuerpo con el avance tecnológico: ¿Pueden las máquinas tener conciencia?

Este debate, más filosófico que científico o técnico, volvió a la primera plana el pasado sábado cuando Blake Lemoine, ingeniero sénior de DeepMind –la rama de IA de Google—, explicó al ‘Washington Post’ que el modelo de lenguaje inteligente que el gigante tecnológico tiene para desarrollar aplicaciones de diálogo (conocido como LaMDA por sus siglas en inglés) había experimentado “nuevos sentimientos”. "Siento como que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro", respondió aparentemente el sistema al ser preguntado por estos.

Lemoine empezó a hablar con LaMDA el pasado otoño como parte de su trabajo para detectar posibles malos usos de términos discriminatorios del sistema, que se usa principalmente para generar ‘chatbots’, programas inteligentes capaces de mantener conversaciones y responder de forma automatizada a preguntas concretas. Este ingeniero decidió hacer públicas las transcripciones de sus charlas con la máquina después que la vicepresidencia de Google las analizase y las descartase. “Si no supiese exactamente de qué se trata, diría que es un niño de entre siete u ocho años que sabe de física”, explicó. Este lunes, la compañía puso a Lemoine en baja administrativa pagada al considerar que había violado las políticas de confidencialidad corporativas.

Negativa de los expertos

Google trató de atajar la polémica por una supuesta sensibilidad informática negando las conclusiones de su ingeniero y asegurando que el sistema está entrenado para imitar conversaciones, no para tener conciencia alguna. “Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado las pruebas presentadas y no respaldan sus afirmaciones”, remarcó Brian Gabriel, portavoz de la multinacional.Las declaraciones del ingeniero causaron una importante reacción mediática, pero no en el entorno académico. “Es una exageración absoluta y disparatada”, apunta Ariel Guersenzvaig, profesor de Elisava especialista en filosofía tecnológica y ética de la IA. “No podemos atribuir capacidades humanas a máquinas que no razonan, sino que usan unos datos y en base a lo que se les pide calculan qué palabras usar para construir frases coherentes. No hay ningún embrión de conciencia ahí (…) son entes diseñados y corregidos por los humanos”.

"La dicotomía entre humanos e IA es tan absurda como entre humanos y trenes", señala un experto

decoration

Cuando un loro canta una canción lo que hace es repetir los sonidos que ha escuchado, sin entender aquello que está pronunciando. La máquina hace algo similar, reconoce patrones a través de los miles de millones de mensajes que hay publicados en Facebook, Twitter, Reddit y otros foros de internet y los imita para dar una respuesta que parezca humana. "Mientras que Alexa (el asistente virtual de Amazon) no recuerda lo que le han preguntado antes, el modelo de Google es capaz de usar el contexto para dar respuestas más coherentes y parecer más humano. Pero de simularlo a tener conciencia real hay un salto que hoy en día es imposible de codificar", añade Nerea Luis, ingeniera informática y doctora en IA. Es una cuestión de cálculo matemático, no de ingenio o creatividad. “La dicotomía entre humanos e IA es tan absurda como entre humanos y trenes”, recalca Guersenzvaig.

Los expertos coinciden en señalar que, si bien no puede descartarse teóricamente la posibilidad de que algún día alcancen un estado de conciencia, no hay indicios científicos que apunten a que las máquinas pueden operar por el momento como entes con autonomía y libre albedrío, condiciones intrínsecamente humanas. “Se está confundiendo como evidencia lo que en realidad es una percepción, el sistema de Google no tiene emociones humanas, finge tenerlas”, añade Frank Pasquale, miembro del Comité Consultivo Nacional de Inteligencia Artificial de Estados Unidos.

Popularización de la IA

En los últimos meses se han popularizado distintas herramientas de IA que pueden convertirse en fenómenos transformadores en el campo creativo. Es el caso de GPT-3, un programa capaz de generar textos más o menos elaborados, y el de DALL-E 2, un generador de imágenes que crea resultados que antes no existían a través de las consignas que ordena el humano. Este último está causando furor en Twitter, pues los usuarios pueden dar rienda suelta a su imaginación y el sistema responde con resultados tan bizarros como fascinantes, desde un juicio entre el rapero Snoop Dog y Snoopy a Mariano Rajoy tocando en el Primavera Sound.

Ambos programas funcionan con redes neuronales artificiales, como se conoce la arquitectura informática que replica el funcionamiento del cerebro humano para permitir a las máquinas resolver problemas y dar respuestas. Ambos programas son propiedad de OpenAI, un laboratorio de investigación en IA de San Francisco fundado por el magnate Elon Musk y el inversor Sam Altman. "La investigación de la IA se concentra cada vez más en las manos de grandes tecnológicas y menos en las universidades y así el camino lo marcan los intereses económicos de esas compañías" que están privatizando un espacio de interés público, advierte Luis.

Riesgos del lenguaje

En los últimos años ha crecido el número de tecnólogos e ingenieros en IA, incluidos altos responsables en Google u OpenAI, que aseguran que se está avanzando hacia la conciencia de las máquinas. Sin embargo, los expertos advierten que el uso de analogías humanas y exageraciones para describir esos sistemas, también replicada por los periodistas, puede ser un truco marketiniano para atraer más inversiones y vender mejor sus productos.

Esa estrategia es de doble filo. La opacidad es una característica intrínseca de la IA, algo que se acentúa cuando ese sistema es propiedad de una multinacional recelosa de la transparencia. Esa condición lleva a una “asimetría de recursos brutal” entre grandes empresas como Google y los investigadores que estudian el impacto de la IA que pone en desventaja a estos últimos. “Si hablamos de forma que se normaliza la atribución de agencia a los sistemas como si tuviesen voluntad propia estamos permitiendo que sus creadores marquen las reglas”, lamenta Guersenzvaig. "Y decir que GPT-3 escribe mejor que un periodista nos llevará a pensar que los sistemas automatizados usados en la justicia o en las finanzas son mejores que los humanos".

A finales de 2020, Google expulsó a dos de sus más reputadas investigadoras en ética de la IA, Timnit Gebru y Margaret Mitchell, tras publicar un artículo académico en el que, entre otros riesgos, se alertaba de la “tendencia humana a buscar significado donde no lo hay” y de las exageraciones que podían distorsionar las capacidades de las máquinas. Exactamente, lo que habría llevado a Blake Lemoine a ver una alma informática en lo que son infinitas líneas de código computacional.

Compartir el artículo

stats