El responsable de inteligencia artificial de Microsoft se opone a los esfuerzos por crear máquinas aparentemente conscientes, afirmando que solo los seres vivos pueden experimentar la verdadera consciencia.
Mustafa Suleyman declaró a CNBC durante una entrevista en la Conferencia AfroTech de Houston esta semana que los investigadores deberían abandonar el trabajo dirigido a construir sistemas de IA que parezcan conscientes. Lo calificó como un enfoque totalmente erróneo.
«No creo que ese sea el trabajo que la gente deba hacer», dijo Suleyman en la conferencia donde pronunció el discurso de apertura. «Si haces la pregunta equivocada, obtendrás la respuesta equivocada. Creo que es una pregunta totalmente errónea».
Como figura clave de Microsoft en inteligencia artificial, Suleyman se ha convertido en un destacado crítico de los esfuerzos por desarrollar servicios de IA que podrían hacer creer a la gente que la tecnología puede sufrir o sentir emociones. El año pasado, escribió «La ola que viene», un libro que analiza los peligros que plantean la IA y otras tecnologías emergentes similares. En agosto, publicó un ensayo en el que aboga por crear IA que ayude a las personas en lugar de imitarlas.
Esta conversación se desarrolla en el contexto de una carrera competitiva entre empresas tecnológicas por crear asistentes virtuales con IA, incluyendo las propuestas de Meta y xAI de Elon Musk. El asunto se vuelve cada vez más complejo a medida que el sector de la IA generativa, liderado por OpenAI de Sam Altman, busca la inteligencia artificial general, sistemas capaces de un rendimiento cognitivo a nivel humano.
Altman afirmó en agosto que el término inteligencia artificial general ya no resulta particularmente útil. Explicó que los modelos están mejorando rápidamente y que la gente dependerá de ellos para cada vez más tareas.
Para Suleyman, separar las crecientes capacidades de la IA de cualquier posibilidad de sentimientos humanos es de suma importancia.
“Nuestra experiencia física del dolor nos entristece profundamente y nos hace sentir fatal, pero la IA no siente tristeza al experimentar 'dolor'”, explicó . “Es una distinción crucial. En realidad, solo crea la percepción, la aparente narrativa de la experiencia, de sí misma y de la consciencia, pero eso no es lo que realmente experimenta. Técnicamente, lo sabemos porque podemos observar el comportamiento del modelo”.
Señaló el naturalismo biológico, una teoría del filósofo John Searle que afirma que la conciencia requiere los procesos biológicos de un cerebro vivo.
“Hoy en día otorgamos derechos a las personas porque no queremos hacerles daño, porque sufren. Tienen una red neuronal del dolor y preferencias que implican evitarlo”, dijo Suleyman. “Estos modelos no tienen eso. Es solo una simulación”.
Suleyman reconoció que el estudio de la conciencia sigue siendo una ciencia en desarrollo. No pidió que se impidiera a otros investigar el tema, reconociendo que las distintas organizaciones tienen objetivos diferentes. Sin embargo, recalcó sutronoposición al concepto.
“No son conscientes”, dijo. “Así que sería absurdo realizar investigaciones que aborden esa cuestión, porque no lo son y no pueden serlo”.
Suleyman viaja para hablar públicamente sobre los riesgos que implica el desarrollo de la conciencia en la IA. Antes de Houston, participó en la Cumbre del Consejo Internacional Paley en Silicon Valley la semana pasada.
Allí anunció que Microsoft no creará chatbots para contenido sexual, a diferencia de sus competidores. Según informó Cryptopolitan , Altman reveló en octubre que ChatGPT ahora permite a los usuarios adultos mantener conversaciones de índole sexual, mientras que xAI ofrece un chatbot de anime con contenido sugerente.
“Básicamente, esos servicios se pueden comprar a otras empresas, así que estamos tomando decisiones sobre a qué lugares no iremos”, dijo Suleyman nuevamente en AfroTech.
En su intervención en AfroTech, Suleyman afirmó que eligió Microsoft en parte por su historia, estabilidad y amplio alcance tecnológico. El CEO, Satya Nadella, lo reclutó personalmente.
“Otro aspecto importante es que Microsoft necesitaba ser autosuficiente en IA”, afirmó. Nadella inició hace 18 meses una misión para garantizar que la empresa pudiera entrenar sus propios modelos completamente internamente, utilizando sus propios datos.
Obtén $50 gratis para operar con criptomonedas al registrarte en Bybit ahora