Política de IA
1. Objeto
La presente política define la intención y dirección estratégica de Veridas respecto al uso, desarrollo y comercialización de sistemas de inteligencia artificial. Nuestro propósito fundamental es garantizar que nuestras soluciones de verificación de identidad y biometría operen bajo los más altos estándares de ética, seguridad y fiabilidad técnica.
Este documento establece el marco de referencia para fijar los objetivos de inteligencia artificial y formaliza el compromiso de la organización con el cumplimiento de los requisitos legales, reglamentarios y contractuales aplicables. Buscamos que nuestra tecnología no solo sea precisa, sino que actúe como un motor de confianza para nuestros clientes y para la sociedad, asegurando que cada avance técnico respete los derechos fundamentales de las personas.
2. Alcance
Esta política se aplica a toda la organización y abarca el ciclo de vida completo de nuestros sistemas de inteligencia artificial. Esto incluye desde la fase de investigación y concepción de los algoritmos hasta su diseño, desarrollo, pruebas, despliegue, mantenimiento y retirada.
El alcance comprende tanto a nuestras soluciones propietarias de biometría de voz y facial como a las herramientas internas que utilizamos para la gestión operativa. Es de obligado cumplimiento para todos los empleados de Veridas, así como para los proveedores, socios comerciales y colaboradores externos que participen en nuestros procesos o tengan acceso a nuestros datos y modelos. Quedan cubiertas todas las jurisdicciones donde operamos, adaptando los requisitos locales bajo este marco global de actuación.
3. Compromiso de liderazgo y recursos
La alta dirección de Veridas asume la máxima responsabilidad sobre la eficacia del Sistema de Gestión de Inteligencia Artificial. Entendemos que la gobernanza de la IA no es una tarea meramente técnica, sino una prioridad estratégica que requiere un respaldo visible y constante.
Para materializar este compromiso, la dirección asegura la disponibilidad de los recursos necesarios. Esto implica la asignación de presupuesto financiero suficiente para infraestructuras seguras, la provisión de herramientas tecnológicas avanzadas y, sobre todo, la inversión en capital humano. Nos comprometemos a contar con equipos especializados y a dotarlos del tiempo y la formación necesarios para gestionar los desafíos éticos y técnicos de la inteligencia artificial. Asimismo, la dirección promoverá activamente una cultura interna donde la seguridad y la ética sean innegociables, apoyando a los roles pertinentes para que ejerzan su liderazgo en sus respectivas áreas.
4. Principios de actuación ética y técnica
Nuestra relación con la inteligencia artificial se rige por principios rectores que guían cada decisión. En primer lugar, priorizamos la supervisión humana y la responsabilidad, asegurando que siempre exista una cadena de custodia clara sobre las decisiones automatizadas.
En segundo lugar, nos regimos por la transparencia y la explicabilidad. Nuestros sistemas deben ser comprensibles para las partes interesadas, evitando el efecto de caja negra en la medida de lo posible y facilitando información clara sobre las capacidades y limitaciones de nuestra tecnología.
En tercer lugar, garantizamos la equidad y la no discriminación. Trabajamos de forma continua para detectar y mitigar posibles sesgos en nuestros datos de entrenamiento y en los resultados de nuestros modelos, asegurando que nuestras soluciones de verificación funcionen de manera justa para todos los grupos demográficos.
5. Gestión de riesgos y evaluación de impacto
Reconocemos que la inteligencia artificial conlleva riesgos específicos que deben ser gestionados de forma proactiva. Antes de iniciar cualquier nuevo desarrollo o cambio significativo en nuestros sistemas, llevaremos a cabo evaluaciones de impacto algorítmico y de protección de datos.
Este enfoque preventivo nos permite identificar amenazas potenciales para la seguridad, la privacidad o los derechos de las personas en fases tempranas. Estableceremos controles técnicos y organizativos proporcionales al nivel de riesgo detectado, prestando especial atención a los sistemas de alto riesgo vinculados a la identificación biométrica. Nuestra tolerancia al riesgo se define por la premisa de no poner en peligro la integridad ni los derechos de los usuarios finales.
6. Relación con otras políticas corporativas
Esta política no opera de manera aislada, sino que se integra plenamente con el ecosistema normativo de Veridas. Se alinea y complementa con nuestra política de seguridad de la información, nuestra política de privacidad y protección de datos y nuestros códigos de conducta.
Cualquier desviación de los principios aquí establecidos deberá ser tratada conforme a nuestros procedimientos de gestión de incidencias y no conformidades y, si fuera necesario, activar los mecanismos disciplinarios o correctivos correspondientes. La coherencia entre todas nuestras normativas internas es vital para mantener un sistema de gestión robusto y unificado.
7. Revisión y Mejora Continua
El campo de la inteligencia artificial evoluciona a una velocidad vertiginosa, al igual que el marco regulatorio que lo rodea. Por ello, esta política es un documento vivo. Nos comprometemos a revisar periódicamente y siempre que se produzcan cambios significativos en nuestra estrategia, en la tecnología o en la legislación vigente.
Buscaremos de manera constante oportunidades para mejorar la idoneidad, adecuación y eficacia de nuestro sistema de gestión, aprendiendo de nuestra propia experiencia y de las mejores prácticas del sector para mantener a Veridas a la vanguardia de la inteligencia artificial confiable.
