El auge de la inteligencia artificial ha capturado la atención global, pero no todo lo que brilla es automatización. El reciente colapso de Builder.ai, una startup londinense que prometía revolucionar el desarrollo de software con IA, ha destapado una red de engaños orquestada por humanos. La empresa, que logró una valoración de 1.500 millones de dólares y financiación de gigantes como Microsoft, operaba con más de 700 ingenieros humanos simulando una IA que nunca existió.

El fraude de Natasha: una IA que no era IA
Builder.ai promocionaba un sistema automatizado llamado “Natasha”, capaz de generar aplicaciones al instante. En la práctica, las solicitudes de clientes eran derivadas a oficinas en India, donde ingenieros escribían el código manualmente. Las promesas de automatización eran solo fachada.
- Microsoft invirtió 445 millones de dólares en el proyecto.
- Viola Credit embargó 37 millones tras detectar irregularidades en proyecciones de ingresos infladas un 300%.
- Bloomberg expuso que la compañía falseó un contrato con VerSe para aparentar mayores ingresos.
- En 2019, empleados ya habían denunciado código ilegible y fallos sistemáticos.
Consecuencias millonarias y lecciones para la industria
El escándalo ha generado una reacción en cadena: más de 1,000 despidos, deudas de 85 millones con Amazon y 30 con Microsoft, y múltiples investigaciones abiertas en EE. UU. y Reino Unido. El CEO entrante confirmó las prácticas fraudulentas, iniciando un proceso de insolvencia legal.
Este caso resalta los peligros de la “fiebre por la IA”, donde la urgencia por invertir eclipsa la debida diligencia. También reabre el debate sobre la necesidad de regulación en tecnologías emergentes para evitar fraudes disfrazados de innovación.