El creador de ChatGPT amenaza con abandonar la Unión Europea

En una conferencia en Londres, el CEO de OpenAI ha dejado claro que si ChatGPT no puede cumplir con la nueva ley europea, dejarán de operar en la región.

Sam Altman, el CEO de OpenAI, no quiere operar en la Unión Europea si sus leyes son demasiado autoritarias. O al menos así lo ha querido constatar en la conferencia en University College of London en la que ha hablado sobre la nueva regulación que se cierne en la UE sobre las IA del estilo de ChatGPT.

EL CEO de la que hasta ahora es la plataforma más conocida ha advertido que su intención es “dejar de operar” en la Unión Europea si no puede cumplir con las disposiciones de la nueva legislación de inteligencia artificial que se está estudiando actualmente en el seno de la Unión. La intención de OpenAI es, no obstante, “tratar de cumplir”.

Altman dijo que se había reunido con los reguladores de la Unión Europea para discutir algunos pormenores de la ley de IA aprovechando su reciente gira por Europa (también estuvo en España). El CEO de OpenAI ha advertido, además, que la compañía tiene “muchas” críticas sobre la forma en que está redactada actualmente la ley.

Para la compañía, una de las mayores preocupaciones de la actual propuesta de ley europea es la designación que hace sobre los sistemas de alto riesgo. Según su redacción actual, obliga a que los modelos de IA como ChatGPT y GPT-4 de OpenAI se designen como de «alto riesgo».

Europa considera que los sistemas como ChatGPT son de «alto riesgo»

Uno de los puntos fundamentales de la próxima regulación europea es lo que se conoce como “modelos básicos generativos”. El proyecto regulatorio actual obliga a estos modelos, también de alto riesgo, como ChatGPT, a cumplir con requisitos de transparencia adicionales. Requisitos como revelar que el contenido fue generado por IA, diseñar el modelo para evitar que se genere contenido ilegal y publicar resúmenes de los datos protegidos por derechos de autor utilizados para los entrenamientos de las IA. Unos requisitos técnicos mucho más estrictos que los que se exigen en otras regiones como EE.UU.

Si bien es un paso importante para la privacidad y la seguridad de los usuarios, afectaría enormemente al funcionamiento de estas IA. Por su parte, OpenAI ha argumentado que sus sistemas de propósito general no son inherentemente de alto riesgo. Y si no pueden cumplir con Europa, dejarán de operar:

“Si podemos cumplir, lo haremos, y si no podemos, dejaremos de operar… Lo intentaremos. Pero hay límites técnicos a lo que es posible”.

Según Altman, la ley no es por sí sola defectuosa, pero el CEO de OpenAI considera que existen «detalles sutiles que realmente importan». Para él, la solución a todo este asunto es encontrar algo a medio camino entre “el enfoque tradicional europeo y el enfoque tradicional estadounidense”.