En la era actual, muchas decisiones que antes dependían del juicio humano son delegadas a sistemas automatizados que operan utilizando algoritmos, muchas veces, descritos como “cajas negras”, los que procesan grandes volúmenes de datos para devolver resultados que influyen en recomendaciones o políticas institucionales.
A diferencia de un proceso donde se justifican decisiones paso a paso, el razonamiento algorítmico suele estar oculto tras capas de código y modelos estadísticos. Esta opacidad no es meramente técnica, sino también política y cultural, ligada a la creación de nuevos productos en el mercado digital y la acumulación de capital. La invisibilidad algorítmica se origina en varias razones:
- Algoritmos propietarios y complejos: Muchas herramientas de IA funcionan de manera opaca, y su proceso interno es difícil de rastrear o explicar.
- Entrenamiento con grandes volúmenes de datos: Estos sistemas analizan terabytes de información. Este proceso de aprendizaje mejora el desempeño, pero dificulta rastrear qué ejemplos específicos incluyen en cada decisión. Ello propicia la discriminación algorítmica, ya que las decisiones algorítmicas se basan a menudo en datos históricos que incorporan asimetrías y estereotipos, reforzando desigualdades preexistentes e invisibilización.
- Marco legal y geopolítico: La digitalización de nuestras vidas ha dado lugar a un “capitalismo cibernético” donde grandes empresas tecnológicas recolectan y procesan nuestros datos, generando “excedente conductual”. Este control global consolida el poder y es descrito como “colonialismo digital”, que profundiza desigualdades y vulnera democracias. La opacidad se refuerza por tratados internacionales que imponen la transferencia transfronteriza de datos y exigen la no divulgación del código fuente, impidiendo la auditoría pública. Singh (2020) advierte que es necesario cuestionar la arquitectura del ecosistema digital para reducir asimetrías de concentración de datos.
Frente a esta opacidad, la transparencia y trazabilidad de decisiones automatizadas son cruciales. Si bien una trazabilidad total puede ser inviable o no deseable, es imperativo establecer mínimos éticos y políticos que permitan cierto control democrático, marcos normativos, auditorías y espacios de debate. Carassai y Leguizamón Muiño (2025) insisten en que no basta con enseñar a usar IA; es fundamental construir una comprensión crítica, reconociendo sus límites, sesgos y dilemas éticos. Trovato (2024) suma que la falta de transparencia es un problema de ausencia de garantías para proteger derechos fundamentales como la privacidad y la no discriminación.
Diversas iniciativas regulatorias buscan equilibrar innovación y derechos, por ejemplo, la Unión Europea (UE), con su Ley de Inteligencia Artificial (AI Act, 2024), clasifica las aplicaciones por su nivel de riesgo, exigiendo requisitos estrictos de transparencia, evaluación de impacto y supervisión humana para los sistemas de alto riesgo. Este modelo se basa en directrices éticas de 2019, como equidad, seguridad y no discriminación; la UNESCO ha impulsado el Consenso de Beijing (2019) y la Recomendación sobre la Ética de la Inteligencia Artificial (2021), una guía global que pide políticas educativas y públicas que garanticen inclusión y protección de datos. En Argentina, el Plan Nacional de IA de 2019 forma parte de la Agenda Digital Argentina 2030, y hay múltiples proyectos de ley en el Congreso, incluyendo la creación de un marco legal integral y formación obligatoria en IA para educación. Sin embargo, la coexistencia con iniciativas como el ciberpatrullaje y el perfilamiento predictivo (Resoluciones 428/2024 y 710/2024 del Ministerio de Seguridad) plantea preocupaciones sobre derechos fundamentales, como advierte Busaniche (2024).
En definitiva, la conversación sobre la IA ha dejado de ser exclusivamente técnica para volverse política, social y ética. Es vital fortalecer una cultura digital crítica y responsable, promoviendo una gobernanza de la IA que impulse la responsabilidad, la justicia y el diálogo, y garantice que el progreso tecnológico no erosione nuestras garantías democráticas.
Bibliografía
Aguerre, C., y Levy Daniel, M. (2022). Reportes de política pública. Argentina. Empatía.la. ARGENIA- Presidencia de la Nación, Plan Nacional de Inteligencia Artificial, 2019. Busaniche, B. (2024). Ni artificial ni inteligencia, vigilancia ilegal. Fundación Vía Libre. Carassai, M. A., y Leguizamón Muiño, G. (2025). Hacia una didáctica de (con) la inteligencia artificial: definiciones y desafíos en torno a las tecnologías emergentes. Grupo independiente de expertos de alto nivel sobre inteligencia artificial (2019). Directrices éticas para una IA fiable. Gutierrez, M. (2023, octubre 6). Invisibilización y discriminación algorítmica. Ley de Inteligencia Artificial (AI Act) (2024). (Reglamento (UE) 2024/1689), versión del Diario Oficial de 13 de junio de 2024. López, L. A. (2025). Clase 4. Intangibilidad, regulación y gobernanza de la IA. Curso de posgrado Inteligencia Artificial en Educación Superior: Fundamentos, aplicaciones y desafíos éticos. Universidad Nacional de Quilmes. Material inédito. Proyecto de Ley Expediente: 0345-D-2025 (HCDN). Proyecto de Ley Expediente: 1370-S-2024 (HSNA). Proyecto de Ley Expediente: 2205-S-2024 (HSNA). Proyecto de Ley Expediente: 2573-S-2024 (HSNA). Resolución n° 428, 27 de mayo de 2024 (Ministerio de Seguridad). Resolución 710/2024 del Ministerio de Seguridad de la Nación. Scasserra, S. y Martinez Elebi, C. (2021). Colonialismo Digital: Análisis de la agenda comercial europea. Transnational Institute. Anexo de la publicación. Singh, P. J. (2020). Breaking up big tech: separation of its data, cloud and intelligence layers. Data Governance Network – Working paper 09. Trovato, M. (2024, abril). Gestión de datos personales por parte del Estado. Fundación Vía Libre. UNESCO (2019). Consenso de Beijing sobre Inteligencia Artificial y Educación. UNESCO (2021). Recomendación sobre la Ética de la Inteligencia Artificial.
