Hola, soy Oscar Vega y esto es Pixel Político. Hoy quiero hablarte de un tema que ya está cambiando campañas, gobiernos y elecciones en todo el mundo. la regulación del uso de la inteligencia artificial en la política, en el gobierno y sobre todo en las urnas. Y ojo, esto no se trata solamente de deepfakes, como se le llaman, o mensajes mentirosos. Estamos hablando de publicidad política Esfuerzos de micro segmentación de mensajes, de bots o robots, de decisiones automatizadas en los servicios públicos, de transparencia, de rendición de cuentas y sobre todo de confianza democrática. Porque la pregunta ya no es si la inteligencia artificial va a entrar en la política. Las preguntas reales de fondo son ¿con qué reglas lo hará? ¿Quién define estas reglas y sobre todo cómo se hacen cumplir? Porque ¿cuántas reglas hay en muchos ámbitos de nuestra vida que finalmente a nadie le interesa cumplir o no hay forma de supervisar adecuadamente ese cumplimiento? Te lo digo directamente, en los próximos dos a tres años la regulación se va a acelerar y que no se prepare hoy, mañana va a estar improvisando en crisis que se van a estar presentando en las elecciones o en la vida cotidiana de la sociedad y de cualquier ente de gobierno a todos los niveles y seguramente en todo el mundo. Pero vamos por partes. El problema en el fondo no es la inteligencia artificial. El problema es la opacidad que de repente el uso de la inteligencia artificial permite o la opacidad con la cual se utiliza la inteligencia artificial. Imagínate algo así, ya no muy lejano de la realidad. Te llega un audio por WhatsApp, suena exacto, idéntico a la voz de un candidato o de alguna autoridad pública como tu presidente municipal. En ese audio dice algo incendiario o parece que lo están cachando haciendo algo ilegal o está cambiando la fecha de alguna acción de gobierno o está dando una instrucción especial para el día de las elecciones o está confesando un delito. Y antes, siquiera a veces de que se entere o de que lo pueda desmentir, ya se compartió miles o millones de veces. Esto es obvio, la mentira creíble. Porque no importa que tanto lo aclaren, muchas personas se van a quedar con la primera versión de la información. Y hay algo más silencioso. La inteligencia artificial también puede influir sin mentir explícitamente. Por ejemplo, puedes hacer mensajes políticos hiper personalizados a escala regional. Puedes amplificar ciertos temas con granjas de contenido de bots o de robots. O puedes automatizar decisiones del gobierno que impactan derechos sin una explicación clara. O sea, no solo mintiendo es como puede ser peligrosa. Por eso, cuando hablamos de regulación hablamos de tres cosas o de tres conceptos muy concretos. En primer lugar, las reglas para el contenido sintético y la propaganda. ¿Cómo usar estos materiales? Segundo, las reglas para las plataformas y la publicidad política. Y tercero, las reglas para el uso de la inteligencia artificial ya específicamente dentro del gobierno. Y lo importante es que en el mundo ya se están probando distintas recetas. Déjame te comento algunas de ellas. ¿Qué se está haciendo en el mundo? Estas son experiencias reales, ya operando en distintos países, en distintos continentes. En primer lugar, déjame te comento lo que está pasando en Europa, en donde se está tratando de alinear la transparencia, los límites a la publicidad política y la supervisión. Europa es hoy sin duda el laboratorio regulatorio más completo que podemos encontrar en el mundo. Aquí es interesante mencionar las tres piezas clave con las que nos encontramos el día de hoy. En primer lugar, la Ley de Inteligencia Artificial de la Unión Europea. No es una ley electoral en sí, pero sí marca, sí define estándares muy sólidos, muy fuertes. ¿Qué sistemas son de alto riesgo? ¿Qué prácticas se prohíben? ¿Y qué obligaciones de transparencia se exigen? Además, está entrando en vigor por etapas, y eso importa, porque dos mil veintiséis y dos mil veintisiete son años críticos para su implementación. Segundo, reglas específicas para publicidad política. Europa ya puso reglas sobre transparencia y segmentación. Que se sepa quién paga, por qué, a quién se dirigen los mensajes y con qué información o con qué datos fuente. Y además, incluye un elemento clave, reducir la interferencia extranjera, tema que ya ha sido muy polémico en el pasado y que se prevé que puede seguir siendo muy complicado. Y en tercer lugar, las plataformas contarán con mayor escrutinio. con el marco de servicios digitales se empuja la rendición de cuentas y se abre la puerta, por lo menos en teoría, a que los investigadores con acreditación pública puedan pedir datos para estudiar riesgos sistémicos, incluido el impacto en los procesos electorales. Y aquí hay un dato que ya sacudió al mundo digital. Meta, por ejemplo, la empresa propietaria de Facebook e Instagram y WhatsApp, por ejemplo, entre otros, Dejó de permitir anuncios políticos, electorales y de temas sociales en la Unión Europea por el nuevo entorno regulatorio. Definitivamente cerraron la puerta. Esto es importante porque demuestra un efecto real. Una regulación puede mejorar la transparencia, pero también puede provocar que plataformas completas se retiren del negocio. Y entonces la propaganda se vaya a zonas menos visibles. ¿Por qué? De que la habrá, la habrá seguramente. Ahora vamos al caso de Brasil, en donde existen reglas electorales directas contra las mentiras o los deepfakes. Si hablamos de elecciones, Brasil es una experiencia muy potente, un país enorme, con procesos electorales muy intensos, muy polémicos normalmente. El Tribunal Superior Electoral aprobó reglas que en esencia... hacen o generan dos cosas, dos nuevas realidades. En primer lugar, obligan a informar de manera explícita cuando hay contenido sintético o manipulado con inteligencia artificial en cualquier tipo de propaganda electoral. Y segundo, prohíben los deepfakes o estos personajes falsos en audio o video cuando se usan para perjudicar o favorecer candidaturas. También ponen atención a plataformas y a la circulación de contenidos notoriamente falsos en el contexto electoral. Esto es relevante para el mundo hispano porque nos muestra un modelo claro, ya accesible al alcance de la mano. En periodo electoral la regla es transparencia y una línea roja en contra de la suplantación. La mentira. El siguiente caso que vamos a revisar es el de la India, en donde se implementa un etiquetado en campaña y las propuestas de etiquetado muy, muy estrictas. India es la democracia más grande del mundo y también se está moviendo en este sentido. La autoridad electoral ha emitido lineamientos y recomendaciones para que todos los partidos y candidatos etiqueten el contenido sintético en campañas sin excepciones. Y además, el gobierno indio discutió propuestas con criterios muy específicos de visibilidad del etiquetado, pensando en que la marca sea clara para el usuario común. ¿Qué lección nos deja todo esto? Que la regulación no puede depender de la buena voluntad. Eso se acabó. Si el etiquetado es voluntario, muchos lo van a evadir. Y si es obligatorio, pero con reglas ambiguas, nadie sabe quién cumple y quién no cumple. El siguiente caso es China, el país más grande del mundo, aunque no es una democracia exactamente hablando. Aquí hay una regulación temprana sobre... contenido sintético y etiquetado. China reguló oportunamente tecnologías de síntesis profunda o de mentiras profundas. Su enfoque se parece a esto, exige responsabilidades a los proveedores de la tecnología, impone obligaciones de gestión de contenido y algo muy importante, Pide consentimiento en usos sensibles, como editar el rostro o la voz de una persona, además de mecanismos de etiquetado y control del contenido. Independientemente de si te gusta o no su modelo, hay una señal muy clara. Cuando el Estado considera que hay riesgo social, regula muy rápido. Y eso presiona a otros países a responder o por lo menos a tratar de estar a la misma altura de los que han iniciado en primer lugar. Vayamos ahora a reflexionar sobre el caso de Estados Unidos. Aquí recuerden que mucha de la legislación se da a nivel estatal y también a ese nivel tremendos choques de concepto respecto a la libertad de expresión. En Estados Unidos el panorama no es una sola ley nacional, es un gran mosaico estatal, una diversidad tremenda que en algunos casos llega al nivel de distritos, regiones, condados o municipios. Hay estados que han aprobado restricciones contra los deepfakes electorales, normalmente dentro de ventanas de tiempo antes de la elección y con obligaciones de avisar sobre contenidos alterados en el transcurso o el desarrollo de las campañas. Pero aquí nos encontramos con un reto enorme. Ya hay litigios, por ejemplo, o demandas de plataformas alegando que estas leyes son vagas o que pueden chocar o limitar la libertad de expresión. Un tema muy preciado y defendido de forma muy, muy agresiva en los Estados Unidos. Esto nos adelanta un debate que va a crecer en el mundo hispano. ¿Cómo detienes o cómo frenas la suplantación sin abrir la puerta a la censura política? Que ese es otro problema. Las plataformas digitales han permitido muchas aperturas, muchos procesos de apertura política. Hoy pueden estar en riesgo de nuevo con el pretexto de la regulación de la inteligencia artificial. En España, por ejemplo, hay multas muy fuertes por no etiquetar contenido generado con inteligencia artificial. España prácticamente se volvió un caso interesante porque llegó a nivel nacional una lógica muy clara. Si usas contenido generado por inteligencia artificial y no lo etiquetas, vas a tener sanciones muy, muy fuertes. No es una ley exclusivamente electoral, pero es altamente relevante para campañas porque el deepfake político suele ser el ejemplo típico cuando se pone sobre la mesa este debate. En resumen, Europa regula con reglas amplias y algunos países bajan eso a sanciones bien concretas. Otro gran frente que encontramos cuando hablamos de este tema es la regulación de la inteligencia artificial en el gobierno mismo. Hasta ahora hemos hablado de campañas, elecciones, candidatos, pero hay otro tema que va a explotar en importancia. ¿Cómo debe o no debe usarse la inteligencia artificial dentro del gobierno, en el Estado? ¿Por qué? Pues una cosa es una campaña que usa inteligencia artificial para editar un video y enviar un mensaje exagerado o equivocado. Pero muy distinto será o muy distinto es que el gobierno usa inteligencia artificial, por ejemplo, para decidir a quién le da un apoyo social, para priorizar dónde hace inspecciones, para detectar fraudes económicos o fiscales, para asignar recursos de desarrollo social o para evaluar riesgo que pudieran representar algunas personas. Aquí el mundo trae experiencias útiles ya a la mesa. Hay países con evaluaciones obligatorias de impacto antes de desplegar sistemas automatizados. Otros están impulsando registros públicos de algoritmos, una especie de catálogo sobre qué y cuáles son los sistemas que usa el gobierno, para qué, con qué datos y con qué mecanismos de supervisión. Y hay un punto clave en esto. La transparencia no solo es publicar algo, es publicar lo suficiente para que exista control democrático, sin poner en riesgo la seguridad, datos personales o facilitar algún tipo de fraude. Referentes globales. Cuando no hay ley, hay estándares. Además de leyes, existen marcos internacionales que no siempre son obligatorios, pero sí influyen muchísimo. La UNESCO, por ejemplo... impulsa principios globales, derechos humanos, transparencia, equidad y supervisión humana. El G-Siete lanzó un código de conducta sobre inteligencia artificial avanzada y se montó un marco de reporte para que las empresas muestren cómo gestionan estos riesgos. y la industria tecnológica también reaccionó. En dos mil veinticuatro se firmó un acuerdo de empresas para combatir el uso engañoso de inteligencia artificial en elecciones con compromisos de detección, etiquetado y respuesta inmediata. ¿Es perfecto todo esto? Seguramente no. ¿Sustituye a las leyes? Tampoco, pero sí marca una tendencia. Nadie quiere cargar con el costo reputacional de la inteligencia artificial, saboteó una elección. Nadie quiere pagar ese costo. Y a nivel de Naciones Unidas, recientemente se aprobó un panel científico global para evaluar impactos y riesgos de la inteligencia artificial, señal de que la conversación, el debate y la polémica ya es absolutamente global y nos incluye a todos. ¿Cuáles son los ocho retos que debe atender desde mi punto de vista la regulación en los próximos dos a tres años? Y voy a dos a tres años porque entre cinco, quién sabe qué mundo estemos viviendo. Aquí viene lo más importante para ti. Si trabajas hoy en el gobierno, en comunicación política o en campañas electorales, En los próximos dos o tres años, la regulación se va a jugar en estos retos. Estos van a ser los temas que van a definir el futuro de las reglas en el uso de la inteligencia artificial. El primer reto, definir qué se regula sin matar la libre expresión, la sátira, la presentación ingeniosa de la realidad. El deepfake, el contenido sintético, manipulado, autogenerado. Si la definición es muy estrecha, hay huecos. Y si es demasiado amplia, se lleva todos los contenidos o toda la innovación que se puede hacer hasta el sentido del humor y la libertad de expresión. La solución típica es doble. Prohibir o sancionar la suplantación engañosa en contextos electorales y exigir avisos claros cuando hay contenido sintético en propaganda. El segundo reto, el etiquetado que realmente funcione. Un etiquetado que de verdad los ciudadanos entiendan y que les quede claro cuando están viendo algo que no es verdad. Etiquetar no es poner simplemente un texto microscópico en la esquina. La discusión global se enfoca hacia los siguientes temas. En primer lugar, avisos muy visibles. En segundo lugar, metadatos que permitan que cualquier sistema de identificación encuentre este contenido alterado. Marcas de agua visibles y estándares de procedencia del contenido. Porque si el etiquetado es débil, se vuelve una decoración, un mero adorno. Y si es demasiado fuerte, necesita fiscalización y una sanción real. Que de verdad quien infringe estas reglas sepa que va a tener una sanción muy, muy potente. El tercer reto, la publicidad política y la microsegmentación. Este es el centro, la columna vertebral del poder digital. ¿Se va a permitir un micro-targeting con datos sensibles? Edad, sexo, preferencias, raza. ¿Se va a prohibir totalmente? ¿Se permite si hay consentimiento explícito de las personas? ¿Habría una biblioteca pública de anuncios? Europa ya puso límites muy duros en targeting político. Y lo que ocurra ahí seguramente va a influir en la regulación que se genere en otros continentes, en otras regiones y en otros países. El cuarto reto se refiere a la cadena de responsabilidades. Cuando hay un escándalo por inteligencia artificial, siempre se echan la bolita todos. Yo solo lo publiqué, yo solo lo generé, yo solo vendí el anuncio, yo solo hice el modelo. Pareciera que nadie es responsable o nadie quiere serlo. La regulación que viene se va a enfocar en generar una cadena completa. La campaña, los consultores, las agencias, las plataformas y a veces hasta los proveedores tecnológicos. Y esto implica dos conceptos muy importantes que tenemos que resolver. El registro y la trazabilidad de los equipos, los sistemas, las plataformas y los contenidos. El quinto reto se refiere al acceso a datos para auditoría independiente. Todos debemos estar dispuestos a que se revise lo que hacemos. Sin datos no hay supervisión, eso ya lo sabemos. En las plataformas esto se está moviendo hacia reportes de transparencia, bibliotecas de anuncios como estas que maneja Facebook desde hace mucho tiempo y mecanismos para que los investigadores acreditados puedan estudiar e identificar los diversos riesgos que pueden presentar estas tecnologías. En gobierno la tendencia gira hacia evaluaciones de impacto auditorías internas y externas y registros públicos de algoritmos. Gracias. El sexto reto se refiere a las garantías que debe de haber para el uso de la inteligencia artificial en el gobierno o en el Estado Nacional. La regla debería de ser, si una inteligencia artificial afecta derechos, tiene que haber una explicación, la posibilidad de impugnarla, supervisión humana sin duda y la evaluación de sesgos que se puedan presentar por el uso de estas tecnologías. porque el gobierno sea malo por default o por principio, sino porque el error automatizado es cada más rápido y afecta normalmente a muchas más personas. El séptimo reto es la capacidad de respuesta rápida en los procesos electorales. Recuerden que normalmente las elecciones, en la mayoría de los casos, son procesos de muy corto tiempo, de pocas semanas, pocos meses, algunos hasta pocos días. Una representación equivocada de una realidad no puede esperar un proceso administrativo de treinta días o una impugnación de dos meses o un amparo de quién sabe cuántas semanas. La regulación tiene que contemplar protocolos express, coordinación con las plataformas, la preservación de la evidencia y las medidas de emergencia con el debido proceso para aplicarlas. El octavo reto y súper importante por la realidad que vivimos es la cooperación internacional. La propaganda y la desinformación cruza fronteras sin límites y la inteligencia artificial hace más fácil la injerencia de contenido producido en un país distribuido desde otro pagado por redes opacas ubicadas en otro continente incluso puede ser. Por eso están fortaleciéndose y creciendo los acuerdos internacionales, estándares y la cooperación entre autoridades electorales y reguladores digitales. Y llegamos a un punto bien importante. ¿Qué deberías hacer tú hoy si participas activamente en política o en el gobierno? Sin duda, desde Pixel Político recomendamos siempre que te ubiques en el lado correcto de la historia, que utilices la tecnología para bien, sí, para multiplicar tu mensaje, para incrementar el alcance de tus propuestas, pero siempre, siempre, debes de tener un compromiso claro con la verdad, la transparencia y la rendición de cuentas. ¿Qué te propongo en concreto, independientemente de la regulación en la que te encuentres participando o actuando? que hagas una política interna de inteligencia artificial en no más de treinta días, que tú mismo definas para tu oficina gubernamental, para tu partido o para tu campaña, un documento corto que diga qué se permite, qué se prohíbe, quién debe autorizar cada contenido, cómo se va a etiquetar y cómo vas a preservar evidencias, sobre todo si trabajas en gobierno. En segundo lugar, debes de impulsar que tu diseño tenga claridad y transparencia. Si vas a usar inteligencia artificial para tu imagen, para un audio, video o algún texto, vale la pena que etiquetes con claridad estas realidades, que mantengas los archivos fuente para... consultas futuras, que registres las herramientas que utilizaste y en su caso que publiques los criterios que aplicaste para generar dicho contenido. La transparencia no te debilita, te protege cuando te reclamen o te ataquen, justa o injustamente. Debes definir también con tu equipo un protocolo para crisis que tú mismo puedas sufrir. Un kit de crisis que incluya un monitoreo constante de tu presencia digital, una verificación rápida cuando haya dudas, que tengas una vocería lista, quién va a responder y cómo. Que tengas pruebas de autenticidad y que te coordines con las plataformas y las autoridades hasta el punto en el que lo puedas hacer para aclarar contenidos engañosos o claramente falsos. Porque en dos mil veintiséis y dos mil veintisiete lo que va a costar más trabajo no va a ser generar contenidos. Lo que va a costar más trabajo va a ser defender tu credibilidad, tu imagen y tu presencia pública en redes sociales y en medios de comunicación. La regulación, para cerrar, en inteligencia artificial, en política, no es un tema técnico, es un tema de poder. El poder de influir, el poder de decidir, el poder de manipular y hasta el poder de exigir transparencia. En los próximos dos o tres años vamos a ver tres cosas al mismo tiempo, seguramente en paralelo. Más leyes y reglas y normas, más sanciones y más competencia por controlar el relato sobre lo que es real. Todas las partes se van a trincherar diciendo lo que yo dije es la verdad y lo que dijo el de enfrente es mentira. La pregunta va a ser, ¿vas a estar preparado o vas a llegar tarde correteando a los que sí lo hicieron? Soy Oscar Vega y en Pixel Político te ayudamos a prepararte para estos retos que la vida pública del mundo hoy te exige. Muchas gracias.