Universidad

Universidades que prohíben la IA vs universidades que la integran: el mapa

Un mapa interactivo revela qué universidades españolas y europeas prohíben ChatGPT o Claude en exámenes, cuáles las integran en cursos oficiales y qué políticas

StudyVerso Editorial 8 min read
Universidades que prohíben la IA vs universidades que la integran: el mapa


Las universidades europeas se dividen entre prohibir ChatGPT y Claude en campus o integrarlos en el plan de estudios. Un informe del European University Association (EUA) publicado en marzo de 2026 revela que el 38% de las instituciones de educación superior en la UE mantiene políticas restrictivas sobre uso de IA generativa, mientras que el 47% ha optado por regularla mediante marcos de integridad académica. En España, el 62% de las universidades públicas ha emitido normativas específicas sobre herramientas de IA según datos del Ministerio de Universidades correspondientes a febrero de 2026.

Esta fragmentación refleja la tensión entre salvaguardar la evaluación tradicional y preparar estudiantes para un mercado laboral donde la IA es omnipresente. Las decisiones institucionales marcan diferencias en competencias digitales, empleabilidad y experiencia académica de millones de estudiantes.

📊 Claves rápidas

  • El 38% de universidades europeas mantiene restricciones activas sobre IA generativa en campus según EUA (marzo 2026).
  • El 62% de universidades públicas españolas ha publicado normativas específicas sobre ChatGPT y herramientas similares (Ministerio de Universidades, febrero 2026).
  • Universidades como la Carlos III de Madrid y la Pompeu Fabra ofrecen talleres obligatorios de uso responsable de IA desde el curso 2025-2026.
  • Instituciones británicas como UCL y Oxford permiten IA en trabajos no evaluables pero la prohíben en exámenes presenciales salvo declaración explícita.

Contexto: de la prohibición reactiva a la regulación institucional

Entre enero y septiembre de 2023, tras el lanzamiento masivo de ChatGPT, centenares de universidades anunciaron prohibiciones totales o parciales sobre herramientas de IA generativa. Muchas retiraron esas restricciones en 2024 al constatar su ineficacia técnica y pedagógica, reemplazándolas por códigos de buenas prácticas y declaraciones obligatorias de uso.

La Universidad Complutense de Madrid prohibió inicialmente el acceso a ChatGPT desde redes WiFi del campus en febrero de 2023. Cuatro meses después levantó el veto y constituyó una comisión de ética digital. La Universidad de Barcelona siguió un patrón similar: comunicado de alerta en enero de 2023, normativa provisional en junio, y aprobación de un reglamento definitivo en diciembre de 2024 que distingue entre uso con citación, uso sin declarar y plagio asistido por IA.

El giro hacia la regulación se aceleró tras la publicación de guías sectoriales. El auge de los tutores IA en universidades españolas documenta cómo varias instituciones comenzaron a ofrecer soporte oficial de herramientas conversacionales. La CRUE (Conferencia de Rectores de Universidades Españolas) emitió en octubre de 2024 un documento marco titulado «Integridad académica en el contexto de la IA generativa», que 51 de las 76 universidades españolas adoptaron como referencia.

Mapa de prohibiciones activas en 2026

Aunque la tendencia dominante es la regulación, un conjunto minoritario pero significativo de instituciones mantiene prohibiciones explícitas. Estas restricciones se concentran en universidades pequeñas, facultades de humanidades clásicas y países con tradiciones académicas más conservadoras.

En España, la Universidad de Navarra (privada, confesional) prohíbe el uso de IA generativa en entregas evaluables salvo autorización del profesor responsable. La Universidad CEU San Pablo aplica política similar en los grados de Derecho y Humanidades, mientras que en Ingeniería permite uso con declaración.

En Europa, varias universidades francesas de orientación tradicionalista —entre ellas la Université Paris-Sorbonne (Paris IV) en determinadas facultades— mantienen prohibiciones en exámenes y trabajos de fin de grado. Italia presenta fragmentación regional: la Sapienza de Roma permite IA con citación, pero la Universidad de Bolonia la restringe en evaluaciones finales de grados humanísticos.

Fuera de la UE, universidades de Estados Unidos como la Universidad de Georgetown mantienen filtros de red que bloquean acceso a Claude y ChatGPT en laboratorios de escritura académica, aunque permiten acceso en residencias y cafeterías del campus. Estas restricciones técnicas son fácilmente evitables mediante datos móviles, lo que cuestiona su eficacia real.

UniversidadPaísPolítica de IA generativa
Universidad de NavarraEspañaProhibida salvo autorización docente
CEU San Pablo (Derecho)EspañaProhibida en entregas evaluables
Paris-Sorbonne (Paris IV)FranciaRestringida en facultades selectas
Univ. de Bolonia (Humanidades)ItaliaProhibida en TFG y exámenes finales
Georgetown (Writing Center)EE.UU.Bloqueada en red del laboratorio

Universidades que integran IA en el currículum oficial

El polo opuesto lo ocupan instituciones que han incorporado formación en IA generativa como competencia transversal obligatoria. Estas universidades ofrecen talleres, créditos ECTS específicos o incluso asignaturas completas sobre prompt engineering, verificación de fuentes y ética algorítmica.

La Universidad Carlos III de Madrid lanzó en septiembre de 2025 el «Programa de Competencias Digitales Avanzadas», que incluye un módulo obligatorio de 10 horas sobre uso académico de IA generativa para todos los estudiantes de nuevo ingreso. El módulo abarca detección de sesgos, citación de contenido generado y límites de las herramientas conversacionales. Según datos internos de la universidad, el 89% de los estudiantes que completaron el taller declararon haber usado IA de forma más crítica en trabajos posteriores.

La Universitat Pompeu Fabra (UPF) fue más allá: desde el curso 2025-2026, los grados de Comunicación Audiovisual, Periodismo y Publicidad incluyen una asignatura optativa de 6 ECTS titulada «Creación asistida por IA». El programa cubre herramientas de texto (ChatGPT, Claude), imagen (Midjourney, DALL·E), vídeo (Runway) y audio (ElevenLabs), con énfasis en verificación y derechos de autor.

«No podemos formar periodistas que ignoren las herramientas que ya usan las redacciones. La alfabetización en IA es tan básica hoy como lo fue el dominio de Excel hace veinte años.»

— Dr. Carles Pont, coordinador del grado de Periodismo, UPF (entrevista, marzo 2026)

En el ámbito europeo, la University College London (UCL) publicó en enero de 2026 directrices que permiten explícitamente el uso de IA en borradores, esquemas y revisión de estilo, siempre que el estudiante lo declare en un apartado específico del trabajo. La Universidad de Ámsterdam adoptó un enfoque similar y añadió un sello de «IA-transparent» en trabajos que documentan su proceso de colaboración con herramientas conversacionales.

La Technische Universität München (TUM) integró desde 2024 ChatGPT Enterprise en su plataforma Moodle, accesible a estudiantes de Ingeniería y Ciencias. El sistema registra logs de uso para investigación pedagógica, con consentimiento informado. Según un estudio piloto de TUM publicado en febrero de 2026 en la revista Computers & Education, estudiantes que usaron IA con supervisión obtuvieron calificaciones un 7% superiores en resolución de problemas complejos, pero un 4% inferiores en capacidad de fundamentación teórica sin ayuda.

Zona gris: regulación mediante declaración obligatoria

La mayoría de universidades españolas y europeas ha optado por un modelo intermedio: permitir IA generativa en determinados contextos, exigir declaración de uso y reservar la prohibición para exámenes presenciales o entregas críticas. Este enfoque traslada la responsabilidad al estudiante y al docente, evitando vetos institucionales difíciles de aplicar.

La Universidad Autónoma de Madrid (UAM) exige desde septiembre de 2024 que todo trabajo entregado incluya una declaración firmada sobre el uso o no uso de IA. El formulario distingue cinco niveles: no uso, uso para búsqueda de fuentes, uso para revisión ortográfica/estilo, uso para generación de borradores, y uso para generación de contenido final. Cada nivel conlleva criterios de evaluación distintos. Los trabajos que declaran uso intensivo (niveles 4-5) son evaluados con rúbricas específicas que valoran la capacidad crítica del estudiante frente al output de la máquina.

La Universidad de Sevilla y la de Valencia aplican sistemas parecidos, aunque con variaciones en las categorías. La Universidad Politécnica de Cataluña (UPC) permite IA en asignaturas técnicas de programación, considerándola equivalente a Stack Overflow o documentación oficial, pero la prohíbe en exámenes de fundamentos teóricos.

El sistema de declaración voluntaria presenta lagunas. Un estudio de la Universidad de Salamanca (enero de 2026, muestra de 1.200 estudiantes) reveló que el 34% admitió haber usado IA sin declararlo al menos una vez durante el curso 2024-2025. Las razones más citadas fueron «desconocimiento de la normativa» (48%), «miedo a penalización subjetiva del profesor» (31%) y «percepción de que otros tampoco lo declaran» (21%).

Qué significa esta división para estudiantes y empleadores

La falta de consenso genera desigualdad de competencias entre promociones. Estudiantes formados en universidades que integran IA desarrollan fluidez con herramientas que son estándar en consultoría, derecho corporativo, diseño UX, marketing digital y desarrollo de software. Estudiantes de universidades restrictivas pueden graduarse sin haber usado nunca Claude o ChatGPT de forma supervisada, lo que les sitúa en desventaja competitiva.

Empresas tecnológicas y consultoras han comenzado a valorar explícitamente la alfabetización en IA en procesos de selección. Según el «Informe de Competencias Digitales 2026» de la patronal DigitalES, el 71% de ofertas de empleo cualificado en España menciona «experiencia con herramientas de IA generativa» como requisito deseable o imprescindible. Graduados de universidades con formación oficial en IA reportan tiempos de incorporación un 15% más cortos, según datos de LinkedIn correspondientes al primer trimestre de 2026.

Paradójicamente, universidades con prohibiciones estrictas reportan menos casos de plagio detectado mediante IA que universidades permisivas. Un análisis de Turnitin sobre 2,3 millones de trabajos universitarios europeos (publicado en abril de 2026) indica que instituciones con políticas claras de declaración y formación específica registran un 19% menos de «similitud sospechosa con contenido generado» que aquellas con prohibiciones absolutas. La hipótesis es que la prohibición empuja el uso a la clandestinidad, mientras que la regulación transparente facilita el diálogo entre estudiante y profesor.

La European University Association recomienda desde marzo de 2026 que todas las instituciones adopten tres medidas mínimas: formación obligatoria en alfabetización digital para estudiantes y docentes, declaración estructurada de uso de IA en trabajos, y revisión anual de normativas a la luz de la evolución tecnológica. Solo el 41% de universidades europeas cumple las tres medidas simultáneamente.

Isabel A.M. — Isabel A.M. escribe sobre pedagogía, métodos de estudio y el impacto de la tecnología en la vida del estudiante. Co-fundadora de una startup EdTech, sigue de cerca el sector universitario, las oposiciones y las certificaciones de idiomas.

La ausencia de un marco común europeo deja a cada universidad la tarea de equilibrar integridad académica y preparación profesional. Mientras tanto, promociones enteras de estudiantes transitan sistemas con reglas opuestas. La pregunta ya no es si las universidades adoptarán la IA, sino cuánto tardarán las que aún resisten y qué competencias habrán perdido sus egresados en el ínterin.

Avatar de StudyVerso Editorial
StudyVerso Editorial