Cuando la pantalla se vuelve urna: inteligencia artificial, democracia y el reto de gobernar lo que no se ve
- Redacción
- hace 6 horas
- 5 Min. de lectura

La pregunta ya no es si la inteligencia artificial transformará la democracia. Ya lo está haciendo. La pregunta urgente —la que reunió este martes a consejeros electorales, académicos, expertos internacionales y voces ciudadanas en el Centro de Convenciones Manuel Velasco Suárez de la UNACH— es cómo gobernarla sin ahogarla, cómo regularla sin frenarla y cómo ponerla, de verdad, al servicio de la gente.
El foro "Decidir en tiempos de Inteligencia Artificial: democracia, comunicación y opinión pública", organizado por el Instituto de Elecciones y Participación Ciudadana de Chiapas, fue mucho más que un ejercicio académico. Fue un diagnóstico colectivo sobre el estado de nuestra conversación pública —y sobre los riesgos y posibilidades que la tecnología abre en un momento en que la confianza institucional se disputa, cada vez más, en la pantalla de un teléfono.
Entre los asistentes destacó la presencia del C. Hernán González Sala, Consejero Electoral

del Instituto Electoral y de Participación Ciudadana de Tabasco, cuya asistencia al foro evidencia el interés creciente que estos temas despiertan más allá de las fronteras de Chiapas. Su presencia fue una señal clara: la conversación sobre IA y democracia ya no puede darse de manera aislada; exige diálogo interinstitucional.
La voz que abre el debate: Marina Martha López Santiago
La Consejera Presidenta del IEPC, la Dra. Marina Martha López Santiago, marcó el tono desde el inicio con una claridad que pocas veces se escucha en foros de esta naturaleza: la inteligencia artificial puede servir para desinformar, pero también puede ser el puente que una a la universidad, la ciudadanía y las instituciones.
Su llamado fue preciso: toda innovación tecnológica debe estar al servicio de la comunidad, y su adopción debe estar guiada por la ética y el respeto a los derechos humanos. En una sala llena de tecnólogos y especialistas en datos, fue una voz con conocimientos en temas indígenas —y por tanto de inclusión social— la que recordó que ningún algoritmo vale más que la dignidad de las personas a quienes debe servir.
El rector y la co-inteligencia: adaptarse sin negarse
El Dr. Oswaldo Chacón Rojas, Rector de la Universidad Autónoma de Chiapas, ofreció quizás el concepto más provocador del foro: co-inteligencia.
La relación entre alumnos y maestros se está transformando, reconoció. El estudiante llega al aula con el mundo en el bolsillo. Negar eso no es pedagogía, es evasión. La ruta, propuso, es adaptar los planes de estudio, aprovechar lo mejor que la tecnología genera y rechazar la tentación de la sobreregulación: frenar la IA con exceso de normas sería, en sus palabras, un error histórico.
Una advertencia que resonó en toda la sala.
La mirada global: Clifford Young y los números que incomodan
Moderada por la Consejera Electoral Helena Jiménez, la ponencia de Clifford Young, de Ipsos Public Affairs, trajo datos que pocas veces se ponen sobre la mesa con tanta claridad: la sociedad está dividida frente a la IA. Hay ilusión, pero también miedo. En México, ese miedo tiene un número concreto: el 71% de la población teme que la inteligencia artificial los deje sin trabajo.
Young fue enfático en algo que los actores políticos e institucionales no pueden ignorar: en un mundo de IA, la reputación se construye o se destruye más rápido que nunca. Las marcas —y las instituciones— que no gestionen activamente su narrativa tecnológica quedarán a merced de la narrativa de otros.
La Dra. Fernanda Buril y el caso que nadie quiere repetir
La Dra. Fernanda Buril, Deputy Director de la International Foundation for Electoral Systems, aportó la perspectiva más incómoda y necesaria: los errores de la IA tienen consecuencias reales en comunidades reales.
Su referencia a un caso en África, donde un sistema de reconocimiento visual clasificó a personas pigmeas como menores de edad con consecuencias graves, fue un recordatorio de que la promesa tecnológica sin responsabilidad es una forma de violencia. Su propuesta: las empresas deben ser transparentes en sus errores. Solo esa transparencia construirá la confianza institucional que permita una adopción responsable y sostenida de estas herramientas.
Carla Humphrey y la lección del INE: el que experimenta, aprende
La presencia de Carla Humphrey, Consejera del Instituto Nacional Electoral, fue uno de los momentos más relevantes del foro. El INE ya implementa inteligencia artificial en sus procesos. No es teoría: es experiencia acumulada.
Su participación dejó una lección clara para instituciones que aún dudan en dar el salto: el principal aprendizaje no es técnico, es cultural. Adoptar IA requiere voluntad institucional, claridad de propósito y disposición a aprender en el camino. Las instituciones que esperan tener certeza total antes de actuar simplemente no actuarán.
Una voz desde el ecosistema tecnológico: Luis Antonio Vidal Calzada
Entre las participaciones del público, destacó la intervención de Luis Antonio Vidal Calzada, abogado y desarrollador de herramientas de inteligencia artificial que actualmente trabaja en un asistente digital en lengua náhuatl para facilitar el acceso de comunidades indígenas a programas sociales e información pública en su propio idioma.
Su participación hacia el panel fue directa y necesaria con este tópico: ¿qué elementos debe reunir una institución pública para dar el salto concreto a adoptar herramientas de IA que democraticen la información y eficienten el uso de recursos? Y su premisa fue igualmente clara: se ha hablado mucho de los riesgos. Pero hay implementaciones que funcionan, que incluyen, que acercan al ciudadano al Estado en lugar de alejarlo.
Un recordatorio de que la conversación sobre IA en democracia no puede darse solo desde el miedo.
El andamiaje institucional: Rojo Martínez, Helena Jiménez y Sofía Martínez de Castro
Un foro de esta naturaleza no ocurre sin la arquitectura institucional que lo sostiene.
El Dr. Guillermo Arturo Rojo Martínez, Secretario Ejecutivo del IEPC Chiapas, fue pieza clave en la organización y conducción del evento, garantizando que el diálogo entre instituciones, academia y sociedad civil tuviera el rigor y la formalidad que el tema exige.
La Consejera Electoral Helena Jiménez desempeñó un papel central como moderadora, guiando con precisión las ponencias y abriendo el espacio para que las voces del público —incluidas las del ecosistema tecnológico— encontraran lugar en la conversación.
Pero fue la Consejera Electoral Sofía Martínez de Castro León, Presidenta de la Comisión Permanente de Innovación Tecnológica del IEPC, quien tuvo la última palabra —y muy necesaria. Su conclusión fue contundente: la inteligencia artificial no es una amenaza que se pueda ignorar ni una promesa que se pueda adoptar sin reflexión. Es un reto que deben afrontar, con urgencia y con responsabilidad, todas las instituciones que quieran minimizar sus riesgos y aprovechar sus enormes posibilidades.
Una conclusión que no cerró el debate. Lo abrió.
El hilo que une todo
El foro dejó una conclusión que ningún ponente dijo explícitamente, pero que estuvo presente en cada intervención: la inteligencia artificial no es neutra. Amplifica lo que ya existe. Si lo que existe es exclusión, la amplifica. Si lo que existe es acceso y transparencia, también lo amplifica.
La tarea de las instituciones —electorales, académicas, gubernamentales— no es decidir si la IA entra en sus procesos. Ya entró. La tarea es decidir con qué propósito, con qué valores y con qué mecanismos de rendición de cuentas.
Chiapas, con su diversidad lingüística y cultural, con su historia de resistencia, tiene más que nadie la posibilidad —y la obligación— de demostrar que la tecnología puede ser un puente y no una nueva forma de muro.
El foro del IEPC fue un primer paso en esa dirección. Lo que venga después depende de si las instituciones están dispuestas a actuar a la altura de lo que discutieron.
Cobertura: EpicentroMX Tuxtla Gutiérrez, Chiapas, 12 de mayo de 2026













Comentarios