En Data Prospectiva SpA promovemos el uso responsable, seguro, proporcional y verificable de tecnologías de inteligencia artificial, automatización y analítica avanzada.
Esta declaración explica los principios que orientan nuestro uso de herramientas de IA en actividades internas, servicios profesionales, análisis técnico, generación de materiales, apoyo metodológico y acompañamiento a organizaciones públicas y privadas.
1. Enfoque general
Entendemos la inteligencia artificial como una herramienta de apoyo al trabajo profesional, no como sustituto absoluto del juicio experto, la revisión humana, la responsabilidad institucional ni el cumplimiento normativo.
El uso de IA debe estar alineado con criterios de legalidad, finalidad legítima, proporcionalidad, transparencia razonable, seguridad, protección de datos, trazabilidad, no discriminación, supervisión humana y evaluación de riesgos.
2. Principios de uso responsable
El uso de tecnologías de inteligencia artificial por parte de Data Prospectiva se orienta por los siguientes principios:
- Finalidad: las herramientas de IA deben utilizarse para objetivos definidos, legítimos y pertinentes.
- Proporcionalidad: el uso de IA debe ser adecuado al contexto, riesgo, sensibilidad de la información y finalidad perseguida.
- Supervisión humana: los resultados generados o asistidos por IA deben ser revisados por personas antes de ser utilizados en entregables, decisiones o comunicaciones relevantes.
- Minimización de datos: solo debe utilizarse la información necesaria para la finalidad correspondiente.
- Confidencialidad: la información de clientes, prospectos o aliados debe ser tratada bajo deber de reserva y con medidas razonables de resguardo.
- Seguridad: el uso de herramientas de IA debe considerar riesgos de exposición, acceso no autorizado, pérdida, reutilización o tratamiento indebido de información.
- Trazabilidad: cuando corresponda, debe ser posible documentar fuentes, supuestos, criterios, límites metodológicos y revisión humana aplicada.
- Calidad: los resultados asistidos por IA deben ser evaluados respecto de exactitud, consistencia, pertinencia, actualidad y posibles errores.
- No discriminación: se debe prestar atención a riesgos de sesgo, exclusión, trato injustificado o impactos diferenciados sobre personas o grupos.
- Responsabilidad: el uso de IA no elimina la responsabilidad profesional, técnica, ética ni institucional de quienes diseñan, revisan o utilizan sus resultados.
3. Usos internos permitidos
Data Prospectiva puede utilizar herramientas de IA, automatización o analítica avanzada como apoyo a tareas internas, siempre bajo revisión humana y criterios de pertinencia.
Estos usos pueden incluir:
- Ordenamiento preliminar de información.
- Elaboración de borradores de documentos.
- Sistematización de antecedentes normativos, técnicos o metodológicos.
- Preparación de materiales de capacitación.
- Apoyo en investigación técnica o documental.
- Generación de minutas, matrices, checklists o esquemas de trabajo.
- Automatización de tareas operativas internas.
- Análisis preliminar de riesgos, brechas o procesos.
- Mejora de productividad, redacción, revisión y estructuración de contenidos.
Los resultados generados o asistidos por IA no se consideran definitivos hasta que sean revisados, ajustados y validados por Data Prospectiva.
4. Información de clientes y uso de IA
Data Prospectiva no ingresará información confidencial, sensible, estratégica o reservada de clientes en herramientas públicas de inteligencia artificial sin autorización, base legítima suficiente o condiciones adecuadas para su tratamiento.
Cuando un proyecto requiera utilizar IA con información de clientes, se procurará definir previamente:
- La finalidad específica del uso de IA.
- El tipo de información o datos involucrados.
- La herramienta o entorno tecnológico utilizado.
- Los riesgos identificados.
- Las medidas de mitigación aplicables.
- Los responsables de revisión y validación.
- Las restricciones de confidencialidad.
- Las condiciones contractuales o autorizaciones correspondientes.
5. Datos personales
El uso de inteligencia artificial que involucre datos personales debe respetar la normativa aplicable en materia de protección de datos, así como principios de finalidad, licitud, proporcionalidad, seguridad, transparencia, confidencialidad y respeto de los derechos de las personas titulares.
Cuando sea posible, se preferirá utilizar información anonimizada, agregada, sintética, minimizada o previamente depurada, especialmente cuando se trate de análisis exploratorios, pruebas, prototipos o ejercicios metodológicos.
Data Prospectiva no recomienda utilizar datos personales sensibles en herramientas de IA sin una evaluación previa de riesgos, finalidad, base de tratamiento, medidas de seguridad y controles adecuados.
6. Información sensible o confidencial
Para efectos de esta declaración, se considera especialmente delicada la información relativa a:
- Datos personales sensibles.
- Credenciales, claves, tokens o secretos técnicos.
- Bases de datos completas o no anonimizadas.
- Información institucional reservada o estratégica.
- Información sobre vulnerabilidades, incidentes o riesgos de seguridad.
- Documentos contractuales, financieros, jurídicos o administrativos no públicos.
- Información de clientes, beneficiarios, usuarios, funcionarios o proveedores.
Este tipo de información no debe ser incorporada en herramientas públicas de IA sin revisión previa y sin condiciones adecuadas de confidencialidad, seguridad y autorización.
7. Revisión humana y control profesional
Los sistemas de IA pueden generar errores, sesgos, omisiones, información desactualizada, inferencias incorrectas o resultados aparentemente coherentes pero técnicamente equivocados.
Por ello, Data Prospectiva aplica un criterio de revisión humana sobre los resultados utilizados en entregables profesionales, especialmente cuando se relacionan con:
- Cumplimiento normativo.
- Protección de datos personales.
- Gobernanza de datos.
- Ciberseguridad.
- Transformación digital.
- Diseño de políticas internas.
- Evaluación de riesgos.
- Recomendaciones institucionales.
- Documentos comerciales o contractuales.
8. Decisiones automatizadas
Data Prospectiva no promueve que decisiones relevantes sobre personas sean adoptadas exclusivamente mediante sistemas automatizados sin revisión humana adecuada.
Cuando un sistema de IA pueda afectar derechos, beneficios, acceso a servicios, evaluación de personas, priorización de casos, asignación de recursos, atención ciudadana o decisiones institucionales relevantes, se recomienda considerar controles reforzados.
Estos controles pueden incluir evaluación de impacto, documentación metodológica, revisión humana, explicación razonable, mecanismos de impugnación, análisis de sesgos, monitoreo y trazabilidad.
9. Sesgos, errores y limitaciones
Las herramientas de IA pueden reproducir sesgos presentes en datos de entrenamiento, instrucciones, criterios de diseño, información incompleta o contextos mal definidos.
También pueden producir respuestas incorrectas, imprecisas, no verificadas o no actualizadas. Por ello, los resultados asistidos por IA deben considerarse insumos de trabajo y no verdades definitivas.
Data Prospectiva procura evaluar la pertinencia, consistencia y razonabilidad de los resultados antes de incorporarlos en análisis, comunicaciones, propuestas o entregables.
10. Transparencia frente a clientes
Cuando el uso de IA sea relevante para la prestación de un servicio, el desarrollo de una metodología, la generación de entregables o el análisis de información del cliente, Data Prospectiva podrá informar razonablemente su utilización, alcance y limitaciones.
La transparencia será especialmente relevante cuando el uso de IA tenga impacto en análisis de riesgos, revisión de datos, construcción de matrices, automatización de procesos, evaluación de brechas o diseño de recomendaciones.
11. Servicios vinculados a IA responsable
Data Prospectiva puede apoyar a organizaciones públicas y privadas en materias relacionadas con gobernanza y uso responsable de inteligencia artificial, tales como:
- Diagnóstico de riesgos asociados al uso de IA.
- Diseño de políticas internas de uso responsable de IA.
- Gobernanza de IA y definición de roles.
- Evaluaciones de impacto algorítmico.
- Revisión de datos utilizados por modelos o sistemas automatizados.
- Lineamientos de transparencia, explicabilidad y trazabilidad.
- Capacitación institucional en IA responsable.
- Preparación frente a futuras exigencias regulatorias.
- Diseño de controles para seguridad, privacidad y gestión de riesgos.
12. Relación con seguridad, privacidad y cumplimiento
El uso responsable de IA se relaciona directamente con seguridad de la información, protección de datos personales, gobernanza de datos, gestión de riesgos, transparencia, trazabilidad y cumplimiento normativo.
Por ello, esta declaración debe leerse junto con nuestra Política de Privacidad, Política de Cookies y Declaración de Seguridad y Confidencialidad.
13. Mejora continua
La inteligencia artificial evoluciona rápidamente, al igual que sus riesgos, oportunidades, estándares técnicos y marcos regulatorios.
Data Prospectiva podrá actualizar esta declaración para reflejar cambios legales, técnicos, metodológicos, operativos, comerciales o institucionales.
14. Contacto
Para consultas sobre esta declaración o sobre servicios relacionados con inteligencia artificial responsable, puedes escribir a: contacto@dataprospectiva.cl.
Data Prospectiva SpA
San Francisco 1070, Of 14, Puerto Varas, Región de Los Lagos, Chile
https://dataprospectiva.cl