Recientemente han saltado a los medios varias noticias sobre profesionales, en concreto de un abogado y un magistrado, que en sus respectivos escritos y resoluciones habían citado sentencias presuntamente favorables a sus criterios y que resultaron provenir de una búsqueda mediante Inteligencia Artificial (IA) que, con una apariencia “solemne” y de completa veracidad, directamente se las había inventado. Tan sencillo como haber comprobado (por parte del profesional en cuestión) que las sentencias dictadas no existían, para haber evitado no sólo el sonrojo, sino una llamada de atención de los propios tribunales.

Cuando en las organizaciones se habla del uso de herramientas de (IA) ya no hablamos de si se pueden o no utilizar. Sabemos que se utilizan, de forma más o menos “oficial”. El problema es cómo se utilizan y el conocimiento que tiene el personal de los posibles riesgos para los propios individuos y para la entidad en la que desarrollan su trabajo.
Hemos pasado de las prohibiciones absolutas (no se puede utilizar X herramienta), a la regulación y al uso responsable con límites -se puede usar en versiones seguras y previamente evaluados sus riesgos-. No se puede poner freno a un avance tecnológico de suma utilidad en las organizaciones, pero enormemente peligroso desde el punto de vista legal.
Trabajar con herramientas gratuitas, abiertas y sin directrices de uso pone en peligro:
- Datos personales
- Confidencialidad de la información propia, de la empresa incluidos clientes, proveedores y otros
- Información protegida por derechos de autor u otros derechos de propiedad industrial
- Riesgos de inexactitud (a menudo lo que no sabe, lo inventa)
- Sesgos de veracidad (se tiende a creer que lo que ofrece la IA es cierto y correcto), entre otros.
Las ventajas son de todos conocidas, pero en entornos empresariales, al igual que existen políticas de uso responsable de los medios telemáticos, debe incluirse la IA como un medio más: controlado desde la dirección tecnológica y en espacios de trabajo cerrados y controlados.
A menudo, esto implica la solicitud de nuevas licencias de aquellas herramientas que puedan tener más utilidad en la empresa, según su actividad y sector: desde las generales como ChatGPT, Copilot, etc., hasta otras específicas que permiten crear asistentes personales para atender a clientes, grabar y resumir reuniones extractando los puntos más importantes, hacer videos, revisar la información financiera, gestionar proyectos, contenidos multimedia, generar sonido e incluso desarrollar código y programar.
Más allá de las prohibiciones que el Reglamento de Inteligencia Artificial establece o la existencia de determinados sistemas denominados de alto riesgo, el uso de la IA en una actividad diaria de empresa exige, cuanto menos cautela y límites.
Las preguntas que toda entidad debería hacerse son:
- Qué herramientas de IA se están utilizando y si esas herramientas permiten trabajar en entornos seguros. La evaluación de proveedores de estas herramientas es especialmente importante aquí, ya que han proliferado proveedores muy atractivos desde el punto de vista de prestaciones y precios, pero que desde el punto de vista del cumplimiento no ofrecen suficientes garantías. El análisis de riesgos de la herramienta utilizada es fundamental.
- Si todo el personal tiene licencias de esas herramientas.
- Si existe una política o, al menos, unas indicaciones mínimas de uso responsable.
- Si existe alguna restricción de uso en virtud del sector o del tipo de actividad de la empresa.
- Si el personal ha recibido un mínimo de formación al respecto.
En caso de duda, mejor preguntar, y a pesar de que a menudo se pregunta lo que no se sabe, también debe tomarse el resultado con cautela y someterlo a algún tipo de verificación no sea que nuestra IA se “invente” lo que no sabe y nos ponga en un compromiso.



