El robo de identidad con uso de IA incrementó en más del 200%: OlimpIA alerta sobre los retos éticos de la inteligencia artificial
La transparencia en los algoritmos de IA es esencial para evitar sesgos y garantizar decisiones justas. Las empresas deben compartir información sobre sus criterios y procesos.
De acuerdo con expertos de OlimpIA, trabajar junto a entidades reguladoras es crucial para crear normativas que protejan a los usuarios y promuevan el uso responsable de la inteligencia artificial en la gestión de identidades digitales.
Bogotá, diciembre de 2024. La inteligencia artificial (IA) está revolucionando sectores clave como la banca, salud y comercio, abriendo nuevas posibilidades económicas y tecnológicas a nivel global. Su impacto podría aportar $15,7 billones de dólares a la economía mundial para 2030 (cifras de PwC). No obstante, este avance plantea importantes desafíos éticos, como garantizar la transparencia en el desarrollo de algoritmos y asegurar que las tecnologías sean inclusivas y respetuosas con los valores fundamentales y los derechos individuales.
En Colombia, aunque muchas empresas han adoptado soluciones basadas en IA para mejorar sus procesos, persiste una brecha significativa en la protección y uso de datos sensibles y no sensibles. Esto expone tanto a las organizaciones como a los consumidores a riesgos crecientes en un entorno digital que demanda mayores estándares de responsabilidad y transparencia. Este vacío ético pone en peligro tanto la seguridad de los usuarios como la reputación y sostenibilidad económica de las empresas que no implementen prácticas responsables.
OlimpIA, líder en ConfIAnza Digital, subraya la urgencia de abordar estos retos. Según un estudio de la compañía, el robo de identidad con uso de IA incrementó en más del 200% en el 2023, los principales medios de obtención de información fueron a través de redes sociales con 62,1% y robo o hackeo de celular correspondiente al 26.1% respectivamente. Estas cifras evidencian la necesidad de que las organizaciones adopten políticas éticas y transparentes en el uso de tecnologías avanzadas.
“A medida de que la inteligencia artificial se convierte en parte esencial de los procesos empresariales, surge el desafío de equilibrar la innovación con la protección de los Derechos Fundamentales. Las empresas que no prioricen un enfoque ético corren el riesgo de perder competitividad y confianza en un mercado cada vez más exigente”, afirmó Erik Sánchez, director de IA de OlimpIA.
De igual manera, Sánchez destacó que, con siete Proyectos de Ley sobre inteligencia artificial en discusión en el Congreso, el sector empresarial tiene una oportunidad clave para liderar iniciativas que fortalezcan la protección de datos y la ConfIAnza Digital.
En este contexto, OlimpIA ha identificado algunos pilares esenciales para garantizar un desarrollo ético de IA en el país:
- Obtención, veracidad y manejo de sesgos de datos: es fundamental garantizar que los datos utilizados sean obtenidos de manera precisa, representativa y libre de sesgos. Las empresas deben ser conscientes de que la recolección de datos puede, de manera involuntaria, reflejar prejuicios existentes tanto en las fuentes como en los métodos de recopilación. Si los datos utilizados para entrenar modelos de IA no son diversos o representan de manera desmedida a ciertos grupos, los algoritmos pueden amplificar los sesgos, lo que puede dar lugar a decisiones injustas o discriminatorias.
- Responsabilidad en el manejo de datos: según la Ley 1581 de 2012 de Protección de Datos en Colombia, las empresas deben recolectar y usar datos biométricos de manera personal, estableciendo políticas claras que otorguen a los usuarios control sobre su información. Esto incluye obtener consentimientos informados y ofrecer opciones para no participar en procesos de recolección de datos.
- Transparencia en los algoritmos: algunos sistemas de IA operan como «cajas negras», dificultando la comprensión de cómo se toman decisiones. Las empresas deben ser transparentes sobre cómo funciona sus algoritmos, explicando los criterios utilizados y evitando sesgos que puedan afectar a ciertos grupos de usuarios.
- Normativas y regulaciones: la falta de un marco regulatorio claro para IA derivar en malas prácticas y abusos. Es fundamental que las compañías trabajen en el desarrollo de normativas que promuevan prácticas éticas y garanticen la protección de los derechos de los usuarios en un ecosistema digital en constante evolución.
La gestión ética de la inteligencia artificial se ha convertido en una oportunidad estratégica para que las empresas optimicen sus procesos, aprovechen las nuevas tecnologías y posicionen como líderes en un entorno digital competitivo. Con el aumento exponencial en la recopilación y procesamiento de datos necesarios para entrenar modelos de IA, se hace urgente implementar un marco regulatorio que garantice su uso responsable y sostenible.
En el país, iniciativas como el Proyecto de Ley 091 de 2023, donde “se establece el uso responsable de la Inteligencia Artificial (IA) en Colombia, dentro de los principios éticos y legales que garanticen seguridad, transparencia, igualdad y equidad para sus usuarios”, representan avances significativos hacia una regulación integral. “El verdadero impacto de la inteligencia artificial no radica únicamente en su capacidad para innovar, sino en el compromiso de las organizaciones con la transparencia, responsabilidad y respeto por los derechos de quienes interactúan con estas tecnologías”, concluyó Sánchez.