Light
Dark

La IA ya está dentro de empresas y organizaciones: el riesgo de no saber cómo se está usando

Una política útil debe ser clara, aplicable y proporcional al riesgo. Debe definir principios, pero también reglas. Debe hablar de ética, pero también de datos. Debe mencionar innovación, pero también responsabilidad. Debe permitir experimentar, pero dentro de límites específicos

La inteligencia artificial ya entró en las empresas y organizaciones. No pidió permiso, no esperó una política institucional, no solicitó la aprobación de una junta directiva ni aguardó a que las áreas jurídicas, tecnológicas o de calidad terminaran de ponerse de acuerdo. Entró por la vía más simple: el uso cotidiano.

Alguien la utiliza para redactar una propuesta. Otro para resumir un documento extenso. Un equipo la consulta para preparar una presentación. Un gerente le pide ayuda para analizar información. Un área de recursos humanos la prueba para revisar perfiles o redactar comunicaciones internas. Mercadeo la usa para generar ideas, imágenes o textos. Un técnico la consulta para resolver dudas. Un estudiante, un funcionario, un vendedor o un analista la incorporan a su jornada, sin que la organización haya decidido qué significa usarla bien, lo que implica saber ¿bajo qué criterios, con qué datos, para qué decisiones y con qué responsabilidades?

Durante años, la transformación digital se entendió como incorporación de plataformas, automatización de procesos o migración de servicios. La inteligencia artificial introduce una capa distinta. No solo acelera tareas; también participa en la producción de criterio, en la organización de información, en la redacción de respuestas, en el análisis de escenarios y, poco a poco, en decisiones que antes dependían exclusivamente de juicio humano. Esa diferencia obliga a mirar el tema con más cuidado. No se trata solo de adoptar herramientas. Se trata de ordenar aquellas capacidades que pueden influir en la forma en que una organización piensa, decide, comunica y responde con apoyo de la AI.

El entusiasmo por la productividad puede ocultar riesgos silenciosos. Una empresa puede celebrar que sus equipos sean más rápidos al redactar informes, sin advertir que información interna está siendo ingresada en plataformas externas. Una institución pública puede explorar asistentes digitales para mejorar la atención ciudadana, sin haber definido qué ocurre si una respuesta automatizada orienta mal a una persona. Una universidad puede permitir usos dispersos de inteligencia artificial en docencia o investigación, sin haber resuelto qué significa autoría, aprendizaje, evaluación justa o integridad académica, en un entorno asistido por sistemas generativos.

El riesgo no está solamente en que la herramienta se equivoque o su uso disperso. También está en que la organización no sepa cuándo se usó, quién la usó, con qué información, bajo qué criterio y con qué nivel de revisión humana. Esta ausencia de trazabilidad convierte la eficiencia en una zona opaca. Y cuando algo sale mal, la pregunta inevitable aparece demasiado tarde: ¿quién responde?

Los marcos internacionales han comenzado a insistir en esta dimensión. El Instituto Nacional de Estándares y Tecnología de Estados Unidos, NIST, plantea la gestión de riesgos de inteligencia artificial desde funciones como gobernar, mapear, medir y gestionar, precisamente porque los riesgos de la IA no pueden tratarse como incidentes aislados, sino como parte de un ciclo institucional de decisión y control. La UNESCO, por su parte, ha subrayado que la ética de la inteligencia artificial debe proteger dignidad, derechos humanos, transparencia, equidad y supervisión humana, criterios especialmente relevantes cuando estas tecnologías se incorporan en educación, comunicación, ciencia, cultura o gestión pública. 

Lo importante de estas referencias no es copiar sus documentos ni convertirlos en declaraciones formales que nadie leerá. Lo importante es comprender que la inteligencia artificial ya dejó de ser un asunto exclusivamente técnico. Es un asunto de gobernanza. Y eso significa que cada organización debe preguntarse cómo va a ordenar su propio uso, según su tamaño, su cultura, su tipo de información, sus procesos, sus riesgos y su responsabilidad frente a clientes, ciudadanos, estudiantes, colaboradores o usuarios.

Una organización sin política de inteligencia artificial queda expuesta en varios niveles:

El primero es la informaciónmuchos usuarios no distinguen con claridad entre información pública, información interna, datos sensibles, datos personales, documentos confidenciales o información estratégica. Lo que se copia y pega en una herramienta externa puede parecer inofensivo en el momento, pero puede comprometer contratos, clientes, expedientes, estudiantes, proveedores, investigaciones o decisiones futuras.

El segundo riesgo es la delegación invisible: una cosa es utilizar inteligencia artificial para ordenar ideas, resumir documentos o explorar alternativas. Otra cosa es aceptar sus respuestas como criterio final, especialmente cuando hay personas afectadas por la decisión. La AI no debe sustituir la responsabilidad humana identificable. Puede asistir, pero no debe convertirse en una autoridad sin rostro.

El tercer riesgo es la reducción del criterio profesional: cuando una herramienta responde rápido, con seguridad aparente y lenguaje convincente, resulta fácil olvidar que es un modelo entrenado para inferir y anticiparse, en cuyo proceso puede simplificar contextos, reproducir sesgos o presentar como conclusión lo que apenas es una probabilidad. Su uso recurrente puede debilitar la capacidad de pensar, contrastar, revisar y decidir. 

El cuarto riesgo es reputacional: en un entorno donde la credibilidad se construye lentamente y se pierde rápido, la inteligencia artificial mal gobernada puede convertirse en un problema de reputación antes de que la organización alcance a llamarlo problema tecnológico.

El quinto riesgo es cultural, el más álgido: cuando no hay reglas comunes, cada área crea su propia práctica. Unos usan IA abiertamente, otros la esconden; unos la prohíben sin entenderla, otros la adoptan sin límites; unos la ven como oportunidad, otros como amenaza. Esa fragmentación genera desigualdad interna, temor, simulación y decisiones inconsistentes. Lo que comienza como innovación puede terminar como desorden organizacional.

Frente a ese escenario, las organizaciones tienen varias opcionesLa primera es mirar hacia otro lado y suponer que, mientras no exista una política formal, el uso de IA no está ocurriendo. Esa opción solo posterga el problema. La segunda es prohibir de manera general, lo cual puede parecer prudente, pero suele ser poco realista y, en muchos casos, empuja el uso hacia la clandestinidad. La tercera es comprar herramientas sin haber definido criterios, confiando en que la solución tecnológica resolverá un problema que en realidad es institucional. La cuarta,más sensata, es ordenar el proceso y asumir liderazgo en la gobernanza interna.

Ordenar no significa frenar. Significa ver primero. ¿Qué herramientas se están usando? ¿En qué áreas? ¿Con qué datos? ¿Para qué tareas? ¿Qué decisiones se están apoyando en IA? ¿Qué información no debería procesarse nunca en plataformas externas? ¿Qué usos requieren autorización? ¿Qué actividades necesitan revisión humana obligatoria? ¿Quién responde ante un error? ¿Qué debe quedar registrado? ¿Qué se permite, qué se restringe y qué se prohíbe?

A partir de esas respuestas, una organización puede construir una política de inteligencia artificial que no sea una plantilla importada ni un documento decorativo. Una política útil debe ser clara, aplicable y proporcional al riesgo. Debe definir principios, pero también reglas. Debe hablar de ética, pero también de datos. Debe mencionar innovación, pero también responsabilidad. Debe permitir experimentar, pero dentro de límites específicos. Debe proteger información sensible, establecer supervisión humana, definir responsables, crear protocolos ante incidentes y ofrecer orientación práctica para quienes usan estas herramientas todos los días.

En todos los casos, lo esencial es hacerse una pregunta incómoda: ¿sabemos qué está ocurriendo realmente dentro de nuestras empresas y organizaciones?

Mireya Rodrigez PhDExperta en gobernanza ética en AI y transformación digital

CEO de VORTEX AI SOLUTIONS S.A. de C.V.

Legales Obituarios Epaper
Patrocinado por Taboola