OpenAI introdujo recientemente una actualización en ChatGPT que complica la tarea de identificar imágenes generadas por inteligencia artificial. El cambio no es sólo técnico: abre un nuevo desafío para periodistas, verificadores y plataformas que dependen de señales visibles para distinguir lo real de lo manipulado.
Qué ha cambiado y por qué importa
La última versión de la herramienta mejora la calidad visual de las imágenes y reduce las irregularidades que antes servían como pistas para detectores automáticos. En la práctica, eso significa menos artefactos, texturas más coherentes y patrones de ruido menos predecibles, elementos que muchas herramientas de verificación utilizaban para señalar contenido sintético.
Esto tiene consecuencias inmediatas: en contextos donde la evidencia visual es decisiva —reportajes, procedimientos judiciales, campañas electorales—, la confiabilidad de métodos tradicionales de verificación se reduce. La urgencia crece porque la tecnología evoluciona más rápido que las normas y las defensas técnicas.
Implicaciones para medios y verificadores
La actualización desplaza el debate de la simple identificación forense hacia la necesidad de trazar la procedencia de las imágenes. Para quienes trabajan en verificación y periodismo, la estrategia debe combinar varias líneas de investigación, no apoyarse en un único detector.
Algunos efectos concretos:
- Mayor riesgo de circulación de deepfakes difíciles de distinguir a simple vista.
- Revalorización de la información contextual: fuentes, testigos y metadatos ganan peso.
- Presión sobre plataformas para reforzar políticas de transparencia y señalización del contenido sintético.
Cómo adaptarse: pasos prácticos
No existe una solución única, pero sí prácticas que reducen el margen de error al evaluar imágenes sospechosas:
- Verificar contexto: fecha, ubicación y consistencia con otras pruebas.
- Usar múltiples herramientas de detección y contrastar resultados en lugar de fiarse de uno solo.
- Realizar búsquedas inversas y comparar versiones anteriores o parecidas de la misma imagen.
- Solicitar archivos originales y corroborar metadatos, sabiendo que estos pueden ser alterados o eliminados.
- Analizar detalles técnicos: sombras, reflejos y anatomía que a menudo traicionan una creación artificial.
- Fomentar la adopción de marcas digitales y estándares de procedencia, como C2PA, para rastrear la cadena de edición.
Respuesta institucional y tecnológica
Las soluciones más sostenibles combinan regulación, estándares técnicos y desarrollo de herramientas adversarias. Algunas vías en discusión incluyen exigir marcas digitales obligatorias en contenidos generados por IA, promover normas de procedencia y financiar investigación en detección basada en señales criptográficas en lugar de artefactos visuales.
Al mismo tiempo, las empresas tecnológicas y las plataformas sociales enfrentan un dilema: mejorar la generación de imágenes plantea beneficios creativos, pero también obliga a invertir en salvaguardas y transparencia.
La actualización de ChatGPT subraya un cambio de fase: la batalla ya no es solo identificar rasgos visibles, sino asegurar trazabilidad y responsabilidad en la creación de imágenes. Para periodistas y verificadores, la prioridad debe ser adaptar procesos y exigir herramientas que permitan reconstruir el origen de una pieza visual antes de darla por válida.
Artículos similares
- Verificación con Símbolo Azul Llega a Bluesky: ¿Estás Listo para el Cambio?
- Bots de IA se comunican entre sí en nueva red social
- Samsung One UI 7: ¡Adiós a los CAPTCHAs con la nueva verificación automática!
- Moltbook en duda: ¿la red social de agentes IA es un fraude?
- Galaxy S26: Samsung garantiza salto notable en las cámaras

Carlos Méndez analiza las innovaciones high-tech y te asesora en la elección de gadgets que transformarán tu día a día. Sus análisis técnicos te orientan sobre la evolución digital.