Scale AI y el Centro de Investigación de IA descubrieron que los agentes de IA no pueden completar el 97 % de las tareas en Upwork ni siquiera con un nivel básico de calidad. El estudio utilizó seis modelos de IA diferentes para abordar 240 proyectos de Upwork en diversas categorías, como redacción, diseño y análisis de datos, y comparó sus resultados con los de profesionales independientes reales.
El estudio reveló que el mejor modelo de IA, Manus, solo logró completar con éxito el 2,5 % de las tareas y obtuvo aproximadamente 1810 dólares de los 143 991 dólares ofrecidos. Otros modelos de IA, como Claude Sonnet y Grok 4, completaron el 2,1 % de las tareas.
Los investigadores descubrieron que los agentes de IA tienen dificultades con flujos de trabajo de varios pasos, para tomar la iniciativa o para usar el criterio. También coincidieron en que la IA no reemplazará empleos por un tiempo.
Según una investigación de la Unión Europea de Radiodifusión y la BBC, los modelos de IA, como ChatGPT, Copilot y Perplexity, no son eficaces para informar sobre noticias. El estudio reveló que estos modelos no cumplen con criterios clave, como la verificación de fuentes, la precisión, la generación de texto y la distinción entre opinión y hecho.
Los modelos de IA presentaron al menos un problema significativo en el 45 % de las respuestas, mientras que solo el 31 % de las respuestas de IA fueron calificadas correctamente. El 20 % de las respuestas de IA fueron erróneas y contenían información desactualizada y detalles alucinatorios. De todos los modelos, Gemini registró el 76 % de los problemas significativos en sus respuestas.
Freelance.com publicó una investigación que reveló que las cartas de presentación generadas por IA han perjudicado los esfuerzos en las solicitudes de empleo, lo que ha provocado que los empleadores contraten a menos personas o incluso a las personas equivocadas. La empresa también reveló que los trabajadores cualificados del quintil superior en cuanto a habilidades son contratados un 19 % menos a menudo que antes, mientras que aquellos del quintil inferior son contratados un 14 % más a menudo.
El estudio corrobora un informe de investigación del MIT de agosto, que concluyó que el 95 % de las organizaciones no han obtenido ningún retorno de su inversión colectiva de 30 000 millones de dólares en IA. Según WorldTest, de MIT y Basis Research, los agentes de IA pueden reconocer patrones y predecir palabras, pero tienen dificultades para construir modelos internos del mundo.
El estudio incluyó 129 tareas en 43 mundos interactivos, que requerían que las IA predijeran aspectos ocultos del mundo, planificaran secuencias de acciones para alcanzar un objetivo y determinaran cuándo cambiaban las reglas del entorno. Los investigadores también evaluaron a 517 personas en las mismas tareas y descubrieron que los humanos obtenían puntuaciones casi óptimas, mientras que los modelos de IA fallaban con frecuencia.
Los investigadores argumentaron que los humanos desempeño en las tareas porque comprenden intuitivamente su entorno, ajustan sus perspectivas, realizan experimentos, parten de cero y exploran estratégicamente. Según el estudio, aumentar la capacidad de cómputo de los modelos existentes tampoco funciona; solo mejora el rendimiento en 25 de los 43 entornos analizados.
Investigadores del MIT Sloan y Safe Security descubrieron que la IA impulsa el 80 % de los ataques de ransomware. Según un estudio de 2800 ataques de ransomware realizado por Cybersecurity Arms Race, se halló que la IA maliciosa automatiza secuencias de ataque completas, incluyendo la creación de malware, campañas de phishing y llamadas telefónicas deepfake con fines de ingeniería social.
El investigador Kevin Beaumont discrepa de la investigación, afirmando que la IA generativa no constituye una parte importante de ninguna de ellas. El investigador Marcus Hutchins también calificó el artículo de absurdo y añadió que se echó a reír.
“El artículo es prácticamente un disparate; es increíblemente malo. Es tan malo que resulta difícil saber por dónde empezar.”
– Kevin Beaumont , investigador de seguridad en Medium.
El zar de las criptomonedas y la IA, David Sacks, también afirmó estar preocupado de que la censura en redes sociales y motores de búsqueda observada en los últimos años se torne completamente distópica con la llegada de la IA generativa. Argumentó que el término «IA woke» resulta insuficiente para explicar la situación, ya que trivializa el problema. Señaló la IA orwelliana, que, según él, distorsiona las respuestas, miente y reescribe la historia en tiempo real para servir a la agenda política de quienes ostentan el poder.
Afila tu estrategia con mentoría + ideas diarias: 30 días de acceso gratuito a nuestro programa de trading