Las crisis no se planifican, suceden en el momento menos esperado, pero anticiparse y estar preparado para cuando ocurra, puede ser la diferencia en la manera en cómo se aborde la misma. El periodista y estratega comunicacional, Víctor Bautista, escribió un libro que puede ser considerado como un manual de las nuevas tendencias para la integración de la Inteligencia Artificial en la gestión de crisis.
Muchos pensarán que ahora, a fuerza, se quiere usar la Inteligencia Artificial para todo. Sin embargo, ignorarla puede tener sus costos. Eso queda demostrado en este libro “El Copiloto Invisible”, donde Víctor Bautista plantea de manera clara los beneficios del buen uso de la IA, teniendo en cuenta siempre el factor humano, pero, sobre todo, cómo esta herramienta puede trabajar por ti de manera continúa.
Un ejemplo de esto, es que se puede usar para alertar a los departamentos de Comunicación sobre las conversaciones en redes sociales, antes de que estas se viralicen y le explote la crisis en la cara.
A fin de cuentas, es una oportunidad de tener un monitoreo constante de las conversaciones que surgen en entornos digitales sobre tu marca o empresa, con datos rápidos y precisos, pero siempre con el manejo de un profesional que pueda darles un uso pertinente a esos datos.
“Los equipos de comunicación no pueden seguir enfrentando crisis digitales con herramientas analógicas…La IA -bien entendida y correctamente aplicada- puede ayudarnos a reaccionar, anticipar, modelar y aprender”, afirma Bautista en su libro.
Víctor, ¿qué lo motivó a escribir El Copiloto Invisible?
“Al presentar la tesis de un MBA que realicé, sobre Dirección de Proyectos con Inteligencia Artificial, detecté la oportunidad de hacer una contribución académica y profesional. La IA vino para quedarse y va a impactar en todas las actividades humanas, pero como asistente, no como estructura autónoma que sustituye la inteligencia humana. En comunicación, tanto en el periodismo como en la consultoría estratégica, se hacen muchas tareas repetitivas. Con IA bien utilizada podemos ganar tiempo, productividad y precisión, pero esto requiere una gobernanza ética sobre la tecnología, transparencia y responsabilidad”.

En los entornos de la comunicación, muchas veces se le tiene miedo a la IA. ¿Cómo se debe gestionar el uso de la IA de forma ética y práctica?
“La mejor manera es teniendo conciencia de que la IA es asistente, no sustituto del pensamiento humano. En segunda instancia, adquiriendo formación y habilidades para iterar con la IA. Todos tendremos que hacernos ingenieros de “prompt” (ingenieros de peticiones, para ser más claro) si queremos sacar ventajas usando IA como complemento. Si solicitas a la máquina cosas estúpidas, seguramente hallarás estupideces, pero sin ejecutar órdenes integrales, precisas, específicas, si cuestionas, rechazas resultados y ejerce la crítica, es posible que halles oro molido.
Un factor importante es dudar (la duda es parte del buen periodismo) y contrastar los datos que ofrezca la IA cuando estos causen sospecha”.
En la era digital, una crisis se propaga de forma rápida
Víctor, ¿cómo se puede aplicar la IA para contrarrestar los daños?
“Las cuestiones prácticas como monitoreo de contenidos, analíticas de conversaciones digitales, tendencias, impactos, detección de patrones de bots, fake news, deepfake, análisis netnográficos, auditoría de comunicación, resúmenes de grandes volúmenes de documentos, creación de mapa de ruta de una crisis, cálculos, creación de indicadores, todo eso es más rápido que la asistencia de un copiloto invisible bien gestionado”.
Usted señala en su libro que “la velocidad de propagación redefine el tiempo de reacción. ¿Cuál es el tiempo prudente hoy para responder ante una crisis?
“Te responderé con una base teórica reconocida. En su influyente libro “Ongoing Crisis Communication: Planning, Managing, and Responding”, su autor W. Timothy Coombs es categórico: en la era de la información digital, la velocidad no es solo una ventaja, es una necesidad. En su concepción, el tiempo de respuesta es uno de los factores determinantes para proteger la reputación de una organización y el bienestar de los afectados.
Aunque en el pasado las organizaciones tenían ciclos de noticias de 24 horas, Coombs plantea que hoy el estándar es la primera hora. Si una organización no emite una declaración inicial en ese lapso, pierde el control de la narrativa. No se trata de tener la solución definitiva, sino de reconocer el evento y comunicar que se está trabajando en ello.
Para ser más preciso, hoy el tiempo prudente es inmediato. Según Coombs, la rapidez es una extensión de la responsabilidad ética. Una respuesta tardía no solo es una falla logística, sino que es percibida por los ‘stakeholders’ como una falta de empatía o una admisión de culpabilidad. La meta es ser el primero en informar para convertirse en la fuente primaria y confiable durante el resto del proceso”.
Muchas empresas entienden que si usan un asistente con Inteligencia Artificial pueden prescindir de los humanos. ¿Qué papel juegan las personas en el manejo de crisis y el uso de IA?
“Prescindir de los humanos en la gestión de crisis es un error estratégico. Siguiendo a Coombs, la IA redefine la velocidad, pero las personas definen la humanidad de la respuesta. El papel de las personas es actuar como el filtro ético y emocional que asegura que la tecnología sirva para proteger a la gente y no solo para proteger las métricas de la empresa. La creatividad y la improvisación informada son habilidades humanas necesarias cuando la crisis se sale de los parámetros previstos. El factor humano es el que gestiona lo “inesperado” que la IA no puede predecir por falta de precedentes”.

Usted dice en su libro que “los equipos de comunicación no pueden seguir enfrentando crisis digitales con herramientas analógicas. ¿Qué ventajas da usar herramientas como Robin Stark?
“Robin Stark es un modelo propuesto en el libro, que combina la agilidad del asistente de Batman en Ciudad Gótica con la resiliencia de los Stark en Juegos de Trono. Se concibe como una IA entrenada en contexto cultural dominicano y latinoamericano para responder con precisión en situación de crisis y generar análisis y recomendaciones tomando en cuenta nuestros matices culturales.
Usar herramientas como Robin Stark permite dar el salto de la reacción intuitiva a la gestión basada en datos con sensibilidad cultural. Mientras las herramientas analógicas son lentas y carecen de contexto, Robin Stark ofrece dos ventajas críticas: precisión diagnóstica (entendiendo los matices dominicanos y latinos para evitar malinterpretaciones) y agilidad operativa (procesando grandes volúmenes de información para que el humano pueda enfocarse en la decisión ética y estratégica). Es, en esencia, el puente entre la velocidad de la red y la empatía humana”.
¿Cómo se puede mitigar deepfakes con Robin Stark?
“Para mitigar los efectos de los deepfakes, el asistente virtual Robin Stark funciona no sólo como un detector, sino como un ecosistema integral diseñado para escanear, verificar y responder en cuestión de minutos ante estas amenazas digitales. En un resumen de flujo, te diría que el sistema detecta la anomalía, verifica con carácter forense su falsedad, alerta al equipo legal y de comunicación, genera la contranarrativa y documenta el origen para las acciones, logrando mitigar el impacto en minutos”.
Una deja abierta una interrogante en su libro y queremos exponerla aquí: ¿Qué riesgos éticos surgen al delegar a una IA tareas como la detección de narrativas o la generación de comunicados en una crisis?
“Delegar tareas críticas de comunicación de crisis a una IA no es una acción neutra y conlleva riesgos éticos significativos que pueden comprometer la legitimidad de una institución. Un protocolo ético para el uso de IA en crisis debe fundamentarse en la supervisión humana obligatoria para evitar que la eficiencia tecnológica erosione la legitimidad institucional. Este protocolo debe establecer que ninguna respuesta o narrativa generada de forma automatizada podrá ser difundida sin una validación manual previa que asegure la empatía, la justicia narrativa y el respeto al dolor de los afectados, mitigando así el riesgo de emitir mensajes fríos o deshumanizados.
Asimismo, el equipo de comunicación debe auditar activamente los sesgos algorítmicos para garantizar que la IA no reproduzca exclusiones sociales o prejuicios culturales, manteniendo siempre una transparencia radical al informar al público sobre la naturaleza del asistente virtual utilizado”.
Forma de pago: transferencia o depósito en el banco BHD León a la cuenta 27190380011