Los gobiernos de América Latina deben regular cuanto antes el uso de la Inteligencia Artificial (IA), como una forma de impulsar sus beneficios y de frenar los grandes riesgos que podría enfrentar su gente por su uso en actividades poco éticas. Cada vez más personas y empresas están expuestas a perder la privacidad de sus datos, recibir ataques de manipulación digital y reducir sus condiciones laborales, entre otros inconvenientes, por un uso incorrecto de la tecnología.
Esta semana, Colombia, México y Argentina encendieron sus alarmas ante la inminente utilización de técnicas como ‘deep fake’ -que usa IA para ‘imitar’ digitalmente la voz de los candidatos- en la creación de campañas de desprestigio en sus procesos electorales. Un problema que se une al uso generalizado e ilegal de bases de datos de ciudadanos para manipular su opinión, con noticias falsas y contenidos malintencionados.
Las empresas tampoco son ajenas a los retos que plantea esta tecnología. Una vez la IA está completamente calibrada con la infraestructura de una organización, le permite contar con una protección sólida contra ciberataques e impulsar sus ventas rápidamente, por ejemplo. Sin embargo, para llegar a ese punto, la plataforma debe acceder a millones de datos de los usuarios, especialmente durante su entrenamiento, lo que puede resultar invasivo.
Según una encuesta global elaborada por Zoho, el 81% de los trabajadores tiene preocupaciones de la forma como estas tecnologías exponen sus datos privados, al tiempo que 49% expresa su miedo por la gestión de sus datos y su privacidad. Eso sí, el 84% cree que la IA será aceptada y utilizada en los lugares de trabajo durante el próximo año.
La IA está evolucionando a un ritmo tan rápido que es imposible que los gobiernos y reguladores, que operan lentamente, le sigan el ritmo. Según el informe Perspectivas de Directores de Riesgos Empresariales, el 43% de los encuestados considera necesario frenar el desarrollo de la IA mientras las regulaciones se ponen al día, y el 90% considera que las regulaciones deben acelerarse.
Estamos en un punto de quiebre en que los gobiernos están llamados a diseñar normas que impulsen el desarrollo de la Inteligencia Artificial, acordes con las necesidades de sus comunidades, que reduzcan los riesgos y fijen límites éticos para su uso.
Proteger la privacidad de los datos siempre será la base para regular esta tecnología en cualquier parte del planeta. Las medidas deben establecer límites claros a las organizaciones para que recopilen, almacenen, compartan y utilicen la información con esta tecnología, al tiempo que creen mecanismos para que los ciudadanos tengan todo el control sobre sus propios datos.
La regulación relacionada con Inteligencia Artificial también debe condenar claramente las actividades ilegales que se puedan realizar con su uso. Aquí es clave considerar normas para alertar y condenar su uso en este tipo de actividades, que comprenden desde fraudes hasta crear contenido engañoso, como ‘fake news’ y campañas de manipulación.
Para completar, los gobiernos también deben crear un marco jurídico que facilite su utilización por parte de organizaciones de todos los tamaños y sectores económicos. Es clave que la Ley no estimule la creación de monopolios por parte de proveedores de soluciones tecnológicas, que solo sirven para encarecer los servicios y restringirlos a unos pocos.
Algunos países ya están avanzando en la dirección correcta. El congreso chileno, por ejemplo, estudia un proyecto de Ley para regular los sistemas de Inteligencia Artificial, el cual define los diversos riesgos y propone algunas acciones. Por su parte, Argentina ya aprobó varias Recomendaciones para su utilización en el sector público, enfocadas en los aspectos éticos de su uso.
Este es un camino largo que hasta ahora comenzamos a andar. Todas las partes de la sociedad están llamadas a entender las grandes oportunidades que brinda la Inteligencia Artificial, para que también estén listas para mitigar los riesgos de su mala utilización.