Mendoza Diario

La inteligencia artificial: un desafío ético, social y político para nuestro tiempo

Escribe Germán Herrera, Profesor; ex Director de Proyectos Especiales en la Autoridad de Servicios de Comunicación Audiovisual (AFSCA); ex Director de Formación y Capacitación del Registro Nacional de Trabajadores y Empleadores Agrarios (RENATEA); integra el equipo del Programa radial La Barbarie, el cual se emite en Radio Abierta FM 107.9.
inteligencia-artificial

La inteligencia artificial (IA) se ha convertido en una de las tecnologías más transformadoras de la era contemporánea. Desde sistemas que optimizan procesos industriales hasta algoritmos que generan contenido en segundos, la IA está redefiniendo la manera en que vivimos, trabajamos y nos relacionamos. Sin embargo, su acelerado desarrollo también plantea interrogantes éticos y sociales que no pueden ser ignorados. En este contexto, se vuelve urgente reflexionar sobre cómo el uso de esta herramienta debe estar guiado por principios éticos sólidos, un marco regulatorio estatal robusto y políticas públicas que mitiguen sus efectos adversos en la sociedad.

La ética en la IA: un imperativo ineludible

El desarrollo de la IA no es neutral. Los algoritmos que la sustentan son diseñados por humanos, con sus propios sesgos y prioridades. Esto implica que, sin una perspectiva ética clara, la IA puede perpetuar desigualdades y profundizar la desinformación en la era digital. Por ejemplo, sistemas de reconocimiento facial han sido criticados por su sesgo racial, mientras que algoritmos de recomendación en redes sociales pueden amplificar discursos de odio y desinformación.

En este sentido, la ética en la IA debe enfocarse en garantizar transparencia, responsabilidad y equidad. Esto incluye auditar los algoritmos para identificar sesgos, asegurar la protección de datos personales y priorizar la generación de información veraz. La tecnología no puede ser un fin en sí mismo; debe estar al servicio del bienestar social.

El rol del Estado: regulador y garante

El Estado tiene un papel fundamental en garantizar que la IA no se convierta en un factor de exclusión, sino en una herramienta de conocimiento, educación e información veraz. Esto requiere una regulación que equilibre la innovación tecnológica con la protección de los derechos fundamentales.

En el ámbito global, se han dado algunos pasos hacia la regulación. La Unión Europea, por ejemplo, impulsó la propuesta de la Ley de Inteligencia Artificial, que establece categorías de riesgo para los sistemas de IA y exige medidas de control proporcionales. Sin embargo, en muchos países, estas iniciativas son incipientes o inexistentes.

En el caso de América Latina, el presidente colombiano, Gustavo Petro, destacó durante la reciente reunión del G20 que la inteligencia artificial debe ser regulada para que no exacerbe desigualdades existentes y se convierta en un factor de desinformación. Petro también llamó la atención sobre la necesidad de que estas herramientas se usen para democratizar el acceso al conocimiento, un objetivo que solo puede alcanzarse si el Estado asume un rol activo en su regulación

Renta básica universal: una respuesta a la disrupción laboral

Uno de los mayores desafíos asociados con la IA es su impacto en el empleo. Automatización y robotización están desplazando a trabajadores en sectores como la manufactura, los servicios y el transporte. Este fenómeno ha llevado a figuras como Elon Musk, a quien nadie puede acusar de socialista o estatista, a plantear la necesidad de una renta básica universal (RBU). Musk ha argumentado que la IA será capaz de realizar tantas tareas humanas que será inevitable implementar una RBU para garantizar la estabilidad social.

La idea de una RBU no solo responde a los riesgos de desempleo masivo, sino que también puede ser una herramienta para redistribuir los beneficios de la tecnología. Sin embargo, su implementación requiere financiamiento sólido, que podría provenir de impuestos a las empresas tecnológicas y mecanismos de redistribución fiscal.

Hacia políticas públicas regulatorias en el campo de la IA

El desafío de la IA es global, pero su implementación y regulación dependen de decisiones locales. Algunas políticas públicas necesarias pueden incluir los siguientes componentes:

–       Marco regulatorio ético: Establecer normativas claras sobre el diseño, uso y auditoría de algoritmos para evitar sesgos y garantizar la transparencia.

–       Educación inclusiva: Incorporar formación en competencias digitales y éticas en todos los niveles educativos para preparar a las futuras generaciones para un mundo tecnificado.

–       Protección social: Evaluar la implementación de una renta básica universal como respuesta a la automatización, financiada por impuestos progresivos sobre las ganancias tecnológicas.

–       Fomento de la investigación responsable: Apoyar iniciativas de IA enfocadas en resolver problemas sociales, como la brecha educativa o la gestión de recursos.

La inteligencia artificial tiene el potencial de transformar positivamente nuestras sociedades, pero solo si sus beneficios se distribuyen equitativamente y sus riesgos se mitigan con políticas públicas éticas y responsables. El futuro de la IA no debe estar en manos exclusivas de corporaciones tecnológicas, sino que debe ser un proyecto colectivo que priorice el bienestar humano, regulado por la herramienta que tenemos como ciudadanos que es el Estado.

Facebook
X
WhatsApp