
La jornada “Entre código y algoritmos: programar en la era de la inteligencia artificial”, coorganizada por la Universidad Nacional de La Plata, Zona de Riesgo y la Cátedra Libre de Educación y Mediación Digital en Danza Performance, propuso un espacio que evidenció la dificultad contemporánea para pensar críticamente tecnologías que avanzan más rápido que nuestras estructuras culturales, educativas y legales.
A partir de las intervenciones de Fabricio Costa Alisedo y Jaime Lobato Cardozo, la conversación se desplazó rápidamente de la pregunta inicial —si existe o no resistencia frente a la IA— hacia un terreno más complejo, donde la noción misma de resistencia se vuelve insuficiente. Más que una oposición clara, lo que emerge es un escenario de sobreadaptación, desconocimiento y desfase temporal entre el desarrollo tecnológico y la capacidad social para comprenderlo.
Uno de los puntos del encuentro fue la problematización de la idea de “resistencia”. Los participantes coincidieron en que el fenómeno dominante es una adopción acelerada, atropellada, muchas veces acrítica, impulsada por la inercia tecnológica.
En este contexto, la resistencia es la capacidad de cuestionar, ralentizar y reflexionar sobre el uso de estas herramientas. Como se sugirió en el diálogo, cada etapa del trabajo con IA —desde la selección de datos hasta la formulación de prompts y la curaduría de resultados— implica decisiones que pueden leerse como formas de resistencia crítica.
Esta dimensión reflexiva convive con el uso masivo de tecnologías cuyo funcionamiento profundo sigue siendo desconocido para la mayoría, incluidas muchas instituciones encargadas de regularlas.
Uno de los ejes de la discusión fue el vacío legal que rodea a la inteligencia artificial. Las intervenciones señalaron con claridad que muchas de las legislaciones actuales son insuficientes, y revelan un profundo desconocimiento técnico.
El caso de las leyes que intentan regular los productos generados por IA —declarándolos de dominio público o prohibiendo su registro— ilustra esta desconexión. ¿Cómo determinar si una obra fue creada con IA? ¿Cómo rastrear las fuentes de entrenamiento en sistemas que operan a partir de millones de datos? Las respuestas, por ahora, parecen estar fuera del alcance de los marcos jurídicos existentes.
Este desfase evidencia una crisis más amplia en la relación entre tecnología y sociedad. Como se sugirió en la jornada, el problema no es la IA en sí misma, sino las formas en que el capitalismo contemporáneo captura, corporativiza y explota procesos colectivos de producción de conocimiento.
La discusión sobre los derechos de autor y el open source abrió un campo de tensiones. Por un lado, la tradición del código abierto ha permitido el desarrollo colaborativo de herramientas fundamentales para la cultura digital contemporánea. Por otro, estas mismas herramientas son frecuentemente apropiadas por grandes corporaciones que las integran en modelos de negocio altamente lucrativos.
Este fenómeno plantea una pregunta ¿quién se beneficia realmente de la inteligencia artificial? Más que una crítica a la tecnología, lo que emerge es una crítica a las estructuras económicas que la sostienen. La IA, en este sentido, funciona como un espejo que amplifica las desigualdades y contradicciones del sistema en el que se inscribe.
Uno de los aspectos abordados en la jornada fue el impacto de la IA en la formación académica, especialmente en áreas como informática y diseño multimedia. Los participantes coincidieron en la necesidad de integrar estas herramientas en los procesos educativos. Sin embargo, esta integración no puede ser automática ni acrítica.
La universidad se enfrenta a un desafío doble, por un lado, evitar quedar obsoleta frente a tecnologías que los estudiantes ya utilizan antes de ingresar; por otro, generar espacios de reflexión que permitan comprender sus implicaciones éticas, técnicas y culturales.

En este sentido, se planteó la necesidad de crear equipos interdisciplinarios, comités de análisis y espacios de discusión profunda, capaces de abordar la complejidad del fenómeno. No se trata solo de enseñar a usar IA, sino de formar sujetos capaces de pensar con y contra ella.
Al mismo tiempo, se señaló que el problema no comienza en la universidad, sino mucho antes. La implementación de estas tecnologías en niveles educativos básicos abre interrogantes aún más delicados, especialmente en relación con la formación de la atención, la autonomía y el pensamiento crítico.
Un hilo transversal en la conversación fue la cuestión de la velocidad. La aceleración tecnológica erosiona las formas tradicionales de construcción social. La desaparición de límites claros —en el acceso a la información, en la exposición a redes, en la producción de imágenes— genera un entorno donde la capacidad de orientación se ve comprometida.
En este contexto, la tecnología aparece como síntoma. La crisis no es solo tecnológica, es una dificultad creciente para definir qué significa vivir en comunidad, establecer límites y sostener formas de convivencia.
La referencia a nuevas legislaciones que intentan regular el acceso de menores a redes sociales evidencia esta tensión. La gobernanza tecnológica se convierte en un campo de experimentación donde las respuestas llegan siempre tarde, intentando contener procesos que ya están en marcha.
Desde una perspectiva más técnica, pero profundamente filosófica, la jornada abordó el desplazamiento del rol del programador. Con la creciente capacidad de la IA para generar código, se vislumbra un escenario donde programar ya no implica escribir directamente, sino interpretar, evaluar y guiar lo que las máquinas producen.
Esto introduce una transformación en la cual el programador se convierte en lector de procesos, en curador de sistemas generativos. La metáfora de la “semilla” —un conjunto de instrucciones iniciales que orientan el desarrollo del sistema— resume este cambio. La intención humana ya no determina el resultado, pero sigue siendo necesaria como punto de partida.
Sin embargo, esta delegación tiene límites claros. Como se señaló en la discusión, las IA carecen de contexto, no saben qué hardware se está utilizando, no comprenden las condiciones específicas de uso, no poseen una verdadera intención. Aquí, el humano sigue siendo indispensable, no como ejecutor, sino como intérprete situado.
Hacia el final, la conversación se desplaza hacia una dimensión más amplia, donde la IA se inscribe en una reflexión sobre la vida ¿Qué entendemos por inteligencia? ¿Qué consideramos vivo? ¿Dónde se sitúa la conciencia?
Estas preguntas atraviesan las prácticas artísticas y tecnológicas contemporáneas. La idea de una inteligencia colectiva, distribuida, que no reside en un único sistema sino en la interacción entre múltiples agentes, redefine el horizonte de la discusión.
En este marco, la IA deja de ser un objeto externo para convertirse en parte de un ecosistema más amplio, donde humanos, máquinas y otros sistemas —biológicos, sociales, culturales— coexisten e interactúan.
La jornada dejó en claro que no es posible posicionarse fuera de la inteligencia artificial. Su integración en la vida cotidiana es tan profunda que cualquier intento de rechazo absoluto resulta inviable.
La verdadera resistencia se sitúa en otro lugar, en la capacidad de pensar críticamente, de ralentizar procesos, de sostener preguntas.
