<?xml version="1.0" encoding="utf-8"?>
<!DOCTYPE article
  PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.1 20151215//EN" "https://jats.nlm.nih.gov/publishing/1.1/JATS-journalpublishing1.dtd">
<article article-type="research-article" dtd-version="1.1" specific-use="sps-1.9" xml:lang="es" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink">
	<front>
		<journal-meta>
			<journal-id journal-id-type="publisher-id">pafi</journal-id>
			<journal-title-group>
				<journal-title>Praxis Filosófica</journal-title>
				<abbrev-journal-title abbrev-type="publisher">Prax. filos.</abbrev-journal-title>
			</journal-title-group>
			<issn pub-type="ppub">0120-4688</issn>
			<issn pub-type="epub">2389-9387</issn>
			<publisher>
				<publisher-name>Universidad del Valle</publisher-name>
			</publisher>
		</journal-meta>
		<article-meta>
			<article-id pub-id-type="doi">10.25100/pfilosofica.v0i62S.15068</article-id>
			<article-categories>
				<subj-group subj-group-type="heading">
					<subject>Artículo de investigación</subject>
				</subj-group>
			</article-categories>
			<title-group>
				<article-title>Ética, afectos y política en la era algorítmica</article-title>
				<trans-title-group xml:lang="en">
					<trans-title>Ethics, Affects, and Politics in the Algorithmic Age</trans-title>
				</trans-title-group>
			</title-group>
			<contrib-group>
				<contrib contrib-type="author">
					<contrib-id contrib-id-type="orcid">0000-0001-9682-0625</contrib-id>
					<name>
						<surname>Ayala Román</surname>
						<given-names>Ana María</given-names>
					</name>
					<xref ref-type="aff" rid="aff1"><sup>1</sup></xref>
					<xref ref-type="fn" rid="fn1"><sup>1</sup></xref>
				</contrib>
				<aff id="aff1">
					<label>1</label>
					<institution content-type="original">Universidad Icesi, Cali, Colombia. E-mail: amayala@icesi.edu.co</institution>
					<institution content-type="normalized">Universidad Icesi</institution>
					<institution content-type="orgname">Universidad Icesi</institution>
					<addr-line>
						<city>Cali</city>
					</addr-line>
					<country country="CO">Colombia</country>
					<email>amayala@icesi.edu.co</email>
				</aff>
			</contrib-group>
			<author-notes>
				<fn fn-type="other" id="fn1">
					<label>1</label>
					<p>Doctora en Filosofía. Integrante de la Decanatura de innovación educativa de la Universidad Icesi y profesora del Departamento de Humanidades y ciudadanía de la misma universidad. Su investigación se centra en la filosofía práctica, la ética y la política de los afectos, con especial atención a la tradición spinozista. </p>
				</fn>
				<fn fn-type="conflict" id="fn5">
					<label>Declaración de conflicto de interés: </label>
					<p> La autora declara que no tiene ningún conflicto de interés en la escritura o publicación de este artículo.</p>
				</fn>
				<fn fn-type="equal" id="fn6">
					<label>Contribuciones del autor: </label>
					<p> conceptualización, curaduría de datos conceptuales, metodología, escritura (preparación del borrador original), redacción (revisión y edición)</p>
				</fn>
			</author-notes>
			<pub-date date-type="pub" publication-format="electronic">
				<day>11</day>
				<month>12</month>
				<year>2025</year>
			</pub-date>
			<pub-date date-type="collection" publication-format="electronic">
				<season>Jul-Dec</season>
				<year>2025</year>
			</pub-date>
			<issue>62 Suppl 1</issue>
			<elocation-id>e20415068</elocation-id>
			<history>
				<date date-type="received">
					<day>30</day>
					<month>06</month>
					<year>2025</year>
				</date>
				<date date-type="accepted">
					<day>17</day>
					<month>10</month>
					<year>2025</year>
				</date>
			</history>
			<permissions>
				<copyright-statement>Copyright &#38;#xA9; 2025 Praxis Filosófica</copyright-statement>
  <copyright-year>2025</copyright-year>
<license license-type="open-access">
<license-p>This article is distributed under the terms of the Creative Commons Attribution License <ext-link ext-link-type="uri" xlink:href="http://creativecommons.org/licenses/by-nc-sa/4.0/">http://creativecommons.org/licenses/by-nc-sa/4.0/</ext-link>),la cual le permite Compartir: copiar y redistribuir el material en cualquier medio o formato y  Adaptar: remezclar, transformar y construir a partir del material, siempre y cuando se citen el autor y la fuente originales.</license-p>
</license>

			</permissions>
			<abstract>
				<title>Resumen</title>
				<p>Este texto ofrece una reflexión filosófica sobre los modos de subjetivación y poder que emergen en el contexto de la inteligencia artificial generativa, prestando especial atención a la dimensión afectiva de la vida política. A partir de las perspectivas de Spinoza, Foucault, Butler, Mouffe y Lordon, entre otros, se argumenta que los algoritmos no solo procesan información, sino que participan activamente en la constitución de deseos, afectos y formas de agencia. Lejos de concebir la IAG como una herramienta neutra, se la analiza como un dispositivo de gubernamentalidad que redefine las condiciones del juicio ético y de la acción colectiva. Frente al cierre anticipatorio de lo posible, se propone pensar la ética como práctica de lo común y como reapropiación crítica de los afectos.</p>
			</abstract>
			<trans-abstract xml:lang="en">
				<title>Abstract</title>
				<p>This paper offers a philosophical reflection on the modes of subjectivation and power emerging in the context of generative artificial intelligence, with a particular focus on the affective dimension of political life. Drawing on the perspectives of Spinoza, Foucault, Butler, Mouffe, and Lordon, among others, it argues that algorithms not only process information but actively participate in the constitution of desires, affects, and forms of agency. Far from being neutral tools, AI systems are analyzed as dispositifs of governmentality that redefine the conditions for ethical judgment and collective action. In response to the anticipatory closure of what is possible, this work proposes to think of ethics as a practice of the common and as a critical reappropriation of affect.</p>
			</trans-abstract>
			<kwd-group xml:lang="es">
				<title>Palabras clave:</title>
				<kwd>subjetivación algorítmica</kwd>
				<kwd>afectos políticos</kwd>
				<kwd>ética crítica</kwd>
				<kwd>inteligencia artificial generativa</kwd>
				<kwd>mundo común</kwd>
			</kwd-group>
			<kwd-group xml:lang="en">
				<title>Keywords:</title>
				<kwd>Algorithmic subjectivation</kwd>
				<kwd>Political affects</kwd>
				<kwd>Critical ethics</kwd>
				<kwd>Generative artificial intelligence</kwd>
				<kwd>Common world</kwd>
			</kwd-group>
			<counts>
				<fig-count count="0"/>
				<table-count count="0"/>
				<equation-count count="0"/>
				<ref-count count="18"/>
				<page-count count="1"/>
			</counts>
		</article-meta>
	</front>
	<body>
		<p>
<ext-link ext-link-type="uri" xlink:href="https://crossmark.crossref.org/dialog/?doi=10.25100/pfilosofica.v0i62S.15068">Check for updates</ext-link>
</p>
		<sec sec-type="intro">
			<title>I. Introducción</title>
			<p>La irrupción masiva de la inteligencia artificial generativa (IAG) en los últimos años ha configurado un escenario sin precedentes, dando lugar a profundos interrogantes ético-políticos que afectan directamente la comprensión misma de lo humano. Este contexto tecnológico evoca con especial claridad la figura foucaultiana de la &quot;muerte del hombre&quot; planteada en <italic>Las palabras y las cosas</italic> (1968). Para Foucault, esta &quot;muerte&quot; implicaba una ruptura epistemológica, el fin de un sujeto autónomo y soberano, centralizado en su propia razón y su conciencia histórica. Hoy, en medio de una nueva ruptura, es la IAG la que parece anunciar la definitiva descentralización del sujeto humano, cuya agencia y subjetividad son progresivamente desplazadas hacia sistemas algorítmicos que gestionan no solo información, sino también afectos, elementos que, siguiendo a Frédéric <xref ref-type="bibr" rid="B12">Lordon (2018</xref>), constituyen un eje crucial en la configuración de las comunidades.</p>
			<p>En efecto, los algoritmos no se limitan a gestionar datos neutros: en la práctica, estructuran nuestra experiencia afectiva de manera profunda, al modelar nuestros deseos y preferencias, e influyendo en la formación de identidades y subjetividades individuales y colectivas. Shoshana <xref ref-type="bibr" rid="B18">Zuboff (2019</xref>) ha identificado claramente estas dinámicas en lo que denomina &quot;capitalismo de la vigilancia&quot;, un nuevo régimen económico donde la experiencia humana se convierte en materia prima que es explotada comercialmente para modificar comportamientos y anticipar decisiones mediante predicciones algorítmicas. De este modo, la subjetivación algorítmica descrita por Luciano <xref ref-type="bibr" rid="B3">Floridi (2014</xref>; <xref ref-type="bibr" rid="B4">2015</xref>) y Byung-Chul <xref ref-type="bibr" rid="B9">Han (2022)</xref> emerge como un proceso central que desafía tanto la autonomía afectiva como la ética individual y pública.</p>
			<p>La relevancia del análisis ético y político desde los afectos en este marco algorítmico es vital, pues permite comprender cómo las tecnologías digitales redefinen radicalmente las dinámicas democráticas y los vínculos ciudadanos. El concepto de <italic>ciudadanía afectiva</italic>, propuesto por autores como Chantal <xref ref-type="bibr" rid="B14">Mouffe (1992)</xref> y Frédéric <xref ref-type="bibr" rid="B12">Lordon (2018)</xref>, cobra nueva relevancia en este contexto, cuestionando qué tipo de democracia emerge en sociedades mediadas profundamente por IAG. ¿Es esta una ciudadanía más inclusiva y participativa o, por el contrario, más manipulable y polarizada? La democracia afectiva, así entendida, enfrenta el desafío de procesos algorítmicos que pueden amplificar sesgos afectivos, polarización social y la emergencia de burbujas de información.</p>
			<p>Desde un punto de vista filosófico, esta transformación implica reconsiderar profundamente la condición humana en términos de autonomía y agencia moral, obligándonos a repensar críticamente el estatuto mismo de la ética en un contexto donde la frontera entre decisiones humanas y determinaciones algorítmicas se vuelve difusa. Más allá de establecer normas técnicas, se requiere explorar cómo las subjetividades humanas pueden resistir, apropiarse o subvertir estas mediaciones algorítmicas, recuperando espacios genuinos de deliberación, afectividad y acción política autónoma.</p>
			<p>Este texto busca interrogar, desde una mirada filosófica crítica, las nuevas formas de subjetivación y poder que emergen en la intersección entre algoritmos, afectos y política, además de explorar algunos caminos de pensamiento que permitan imaginar prácticas ético-políticas orientadas a sostener lo común frente a la clausura algorítmica del mundo.</p>
		</sec>
		<sec>
			<title>II. Coordenadas filosóficas para pensar lo ético-político en tiempos algorítmicos</title>
			<p>¿Cómo pensar el sujeto cuando los algoritmos no sólo observan y calculan, sino que modelan deseos y decisiones? ¿Qué ocurre con nuestra libertad, con nuestra capacidad de actuar, cuando las mediaciones tecnológicas afectan directamente los afectos mismos que sostienen toda acción política? Estas preguntas nos obligan a explorar tradiciones filosóficas que han problematizado, desde distintos ángulos, la constitución del sujeto en su relación con el poder, el deseo y los afectos.</p>
			<p>La <italic>Ética</italic> de Spinoza ofrece una entrada privilegiada a este problema. En la <italic>Ética</italic>, Spinoza disuelve la oposición clásica entre razón y pasión al proponer que los afectos son variaciones de la potencia de existir, expresiones concretas del <italic>conatus</italic>, ese esfuerzo por perseverar en el ser que constituye la esencia misma de todo individuo (<xref ref-type="bibr" rid="B17">Spinoza, 2000</xref>, parte III, prop. VI). Los afectos no son simples perturbaciones de la razón, sino indicadores del modo en que nuestra potencia aumenta o disminuye según las relaciones que establecemos con otros cuerpos, es decir, con el mundo. ¿No podríamos ver entonces a los algoritmos contemporáneos como nuevos modos de afección? ¿No están precisamente interviniendo sobre esta potencia de actuar, al modificar los estímulos que afectan nuestros deseos, temores y esperanzas?</p>
			<p>Frédéric <xref ref-type="bibr" rid="B12">Lordon (2018)</xref> radicaliza esta perspectiva al trasladarla al ámbito económico-político. En su lectura spinozista, el orden social es ante todo un dispositivo de captura afectiva: no basta con la coacción o la obligación jurídica; los individuos deben desear aquello que el orden necesita de ellos. <italic>El poder se ejerce sobre el querer mismo</italic>. Así, los algoritmos participan de esta <italic>ingeniería afectiva</italic>: no sólo predicen comportamientos, sino que orientan nuestras pasiones, alinean nuestros deseos, y condicionan aquello que terminamos considerando deseable o intolerable. Pero esta dinámica no es unilateral: si los afectos son modulables, también son reconfigurables; de allí la posibilidad de resistencias afectivas, de desplazamientos de deseo que puedan abrir fisuras en los órdenes establecidos.</p>
			<p>Este vínculo entre afectos y política es central también en la teoría democrática de Chantal Mouffe. La democracia, lejos de ser un espacio de deliberación puramente racional, es un campo atravesado por pasiones colectivas. La construcción del &quot;nosotros&quot; político implica siempre una movilización afectiva, una articulación hegemónica de demandas que sólo cobra consistencia en el antagonismo con un &quot;ellos&quot; (<xref ref-type="bibr" rid="B10">Laclau y Mouffe, 2001</xref>). El antagonismo no es un accidente a superar sino el núcleo constitutivo de lo político. Desde esta perspectiva, las plataformas algorítmicas no son espacios neutros de deliberación pública, sino campos de disputa donde los afectos colectivos son intensificados, polarizados o desarticulados, con profundas consecuencias para la democracia.</p>
			<p>Ahora bien, ¿cómo se constituye el sujeto que es atravesado por estos dispositivos? Michel Foucault problematiza de manera decisiva la noción de subjetividad como una interioridad dada. En sus últimos desarrollos, particularmente en <italic>Tecnologías del yo</italic> (<xref ref-type="bibr" rid="B7">Foucault, 2008</xref>), muestra cómo los sujetos son producidos a través de prácticas discursivas, normativas e institucionales que configuran modos de experiencia de sí. <italic>No hay sujeto previo al poder</italic>: toda subjetividad es el efecto de operaciones de subjetivación. En este sentido, la subjetivación algorítmica contemporánea no es un fenómeno radicalmente nuevo, sino una intensificación de las tecnologías de sí, donde los algoritmos participan activamente en la construcción de identidades, deseos, estilos de vida y auto-relatos. Por otro lado, Judith <xref ref-type="bibr" rid="B1">Butler (1997)</xref> extiende esta reflexión mostrando la paradoja constitutiva de la sujeción: el poder que nos constituye es al mismo tiempo el que nos subordina. “Subjection consists precisely in this fundamental dependency on a discourse we never chose but that, paradoxically, initiates and sustains our agency” (p. 2). El deseo mismo de existir nos ata a los marcos de poder que nos ofrecen reconocimiento y posibilidad de agencia, incluso cuando estos marcos son los que limitan nuestras opciones de vida. De allí la ambivalencia permanente de toda resistencia: no hay exterior puro al poder desde donde oponerse, sino reconfiguraciones internas a los propios procesos de subjetivación. Esta tensión se vuelve especialmente aguda en los entornos algorítmicos, donde las plataformas no sólo gestionan nuestras interacciones, sino que preconfiguran los horizontes mismos de lo pensable, lo visible y lo deseable.</p>
			<p>En este horizonte de reflexión, los dispositivos algorítmicos actuales emergen no sólo como tecnologías instrumentales, sino como <italic>complejos operadores de producción de subjetividades afectivas y políticas</italic>. La cuestión que se impone es más radical que la simple regulación de datos o la protección de derechos individuales: ¿qué formas de existencia política se están constituyendo en este <italic>régimen de afección algorítmica</italic>? ¿Qué posibilidades de resistencia, desvío o reapropiación de los afectos son aún pensables cuando los marcos de experiencia y deseo están preconfigurados por lógicas predictivas, comerciales y performativas? En última instancia, lo que está en juego es el modo mismo en que llegamos a ser sujetos políticos en esta nueva arquitectura del poder.</p>
		</sec>
		<sec>
			<title>III. Subjetivación, política, mediación algorítmica y deseo</title>
			<p>¿Qué significa hoy hablar de ética y política cuando nuestros afectos, decisiones y vínculos están cada vez más mediados por dispositivos algorítmicos? ¿Qué ocurre con la condición afectiva del sujeto en un entorno donde el juicio humano comienza a ceder espacio ante sistemas de optimización automatizada? Estas preguntas no admiten respuestas expeditas, pero es precisamente en su problematización donde se abre el horizonte de este análisis.</p>
			<p>La irrupción de la inteligencia artificial, como sugiere Éric <xref ref-type="bibr" rid="B15">Sadin (2020)</xref>, instituye algo más que un aparato técnico: configura una nueva <italic>economía del sentido</italic>, un <italic>orden epistémico</italic> radicalmente nuevo. Ya no estamos ante simples tecnologías instrumentales subordinadas a fines humanos, sino ante <italic>dispositivos ontológicos</italic> capaces de definir desde sus propios criterios qué debe ser considerado real, verdadero y normativamente válido.</p>
			<disp-quote>
				<p>De ahora en adelante ciertos sistemas computacionales están dotados -nosotros lo hemos dotado- de una singular y perturbadora vocación: la de <italic>enunciar la verdad</italic>, al igual que los métodos de evaluación a los que se veían confrontada esta mujer con vistas a una eventual contratación, y que serían capaces, de acuerdo con una multiplicidad de criterios, de determinar si su perfil corresponde o no al puesto buscado. O como un asistente digital persona que estaría calificado para aconsejar un régimen alimentario que se supone más adaptado, o como un sistema de diagnóstico dermatológico concebido para detectar un tumor de piel, o como un procedimiento de vigilancia policial destinado a prevenir la inminencia de un peligro en una zona ya identificada. (<xref ref-type="bibr" rid="B15">Sadin, 2020</xref>, p. 17)</p>
			</disp-quote>
			<p>La IAG no sólo describe patrones existentes: prescribe el comportamiento futuro, anticipando decisiones antes de que los sujetos se las planteen como tales. Esta normatividad invisible reorganiza las condiciones mismas de la autonomía práctica, al desactivar los márgenes tradicionales del juicio ético y del discernimiento deliberativo. ¿Pero qué clase de sujeto emerge cuando la decisión comienza a devenir cálculo anticipatorio? ¿Es posible seguir hablando de autonomía en un escenario donde las propias preferencias son modeladas en tiempo real por sistemas que, con apariencia de neutralidad técnica, instituyen nuevas formas de <italic>gubernamentalidad automatizada</italic>?</p>
			<p>El sujeto algorítmico no es el heredero del individuo ilustrado, autónomo y racional, como fue concebido en las tradiciones filosóficas modernas. Más bien, emerge como una construcción contingente producida en el cruce de múltiples procesos de afectación. Las plataformas digitales actúan como dispositivos de captura de atención, pues reorganizan de forma continua los estímulos que alcanzan a cada individuo. Los algoritmos, en su capacidad de aprendizaje automático, ajustan estos estímulos en función de datos previos, crean entornos personalizados que, lejos de reflejar un deseo autónomo preexistente, contribuyen activamente a constituirlo. Desde esta perspectiva, y teniendo en cuenta que en la ética spinozista los afectos no son simples emociones internas, sino modificaciones de nuestra potencia de obrar determinadas por los encuentros que establecemos con otros cuerpos y sistemas (<xref ref-type="bibr" rid="B17">Spinoza, 2000</xref>, parte III), estos encuentros no son neutros: son relaciones de poder que incrementan o disminuyen nuestra capacidad de actuar y pensar. En el entorno digital, los algoritmos se convierten en arquitectos de estos encuentros afectivos, ya que seleccionan qué contenidos visualizamos, qué narrativas nos interpelan, qué temores se reactivan y qué expectativas se alimentan. ¿No están, de este modo, reorganizando las condiciones mismas de posibilidad desde las cuales experimentamos el mundo? ¿No configuran, antes incluso de la decisión consciente, los márgenes emocionales dentro de los cuales nos parece sensato o deseable elegir?</p>
			<p>La personalización algorítmica va mucho más allá de ofrecernos recomendaciones convenientes: instala una ingeniería afectiva que modula permanentemente nuestra sensibilidad al riesgo, a la esperanza, al miedo o a la indignación. Al seleccionar de antemano los estímulos que nos afectan, desplaza la frontera de lo que percibimos como relevante, restringiendo los horizontes desde los cuales construimos nuestro juicio ético y político. Así, el deseo ya no emerge como expresión de un sujeto deliberativo, sino como producto de un proceso de afectación continuo y estratégicamente orquestado. La autonomía clásica se ve aquí radicalmente problematizada: el sujeto algorítmico no decide dentro de un campo de alternativas neutras, sino dentro de un escenario de posibilidad previamente construido para él.</p>
			<p>Frédéric <xref ref-type="bibr" rid="B11">Lordon (2015)</xref> ha señalado que la servidumbre moderna no opera ya por coerción directa, sino por alineación pasional: deseamos lo que los dispositivos de captura nos inducen a desear. </p>
			<disp-quote>
				<p>El deseo del subordinado de unirse al deseo del superior, para alegrarlo y hacerse amar, es un deseo sin la menor contestación posible, y no hay en eso ninguna “ajenidad”. Que no sea <italic>originalmente</italic> su deseo importa poco: nadie tiene deseo “original”, y ese deseo devendrá perfectamente suyo. La única alienación es aquella de la servidumbre pasional, pero es universal y no constituye objetivamente ninguna diferencia entre los hombres. (p. 91)</p>
			</disp-quote>
			<p>En este contexto, el gobierno de los individuos se ejerce no a través de prohibiciones visibles, sino a través de la ingeniería continua de sus inclinaciones más íntimas. Las plataformas algorítmicas, al organizar flujos informacionales, afectan directamente la arquitectura misma de los deseos posibles. El problema no radica solo en las decisiones que tomamos, sino en las condiciones de posibilidad de aquello que llega a aparecer ante nosotros como opción legítima o incluso pensable. Los algoritmos seleccionan, filtran y jerarquizan, delinean imperceptiblemente el marco de lo elegible. La libertad de elección se convierte así en un juego de alternativas artificialmente reducidas, dentro de un espacio de posibilidades previamente moldeado.</p>
			<p>Se configura, de este modo, lo que podríamos llamar una <italic>economía afectiva de la previsibilidad</italic>. En ella, el futuro ya no se concibe como un horizonte abierto de indeterminación política, sino como una actualización continua de patrones detectados y refinados sobre los comportamientos pasados. Las plataformas buscan minimizar la fricción, anticipar las necesidades antes de que se formulen, adaptarse a los micro-gestos afectivos del usuario (variaciones en la voz, tiempo de observación de un contenido digital, etc.). Así, el porvenir es cada vez menos campo de invención, y más bien un espacio de reproducción optimizada de preferencias históricas. La política del deseo se ve colonizada por la lógica de la <italic>personalización anticipatoria</italic>, pues erosiona la posibilidad misma del acontecimiento inesperado que caracteriza la experiencia democrática del disenso.</p>
			<p>Este proceso no solo altera las formas de deseo individual, sino que transforma estructuralmente las dinámicas sociales de producción de lo común. La noción clásica de espacio público, entendida como el escenario donde los ciudadanos deliberan colectivamente sobre los fines comunes, se ve profundamente afectada. Las infraestructuras algorítmicas no solo median esta deliberación, sino que fragmentan la experiencia política en burbujas afectivas homogéneas. Las plataformas generan lo que <xref ref-type="bibr" rid="B18">Zuboff (2019)</xref> ha denominado &quot;capitalismo de la vigilancia&quot;, donde cada interacción se convierte en materia prima para un proceso continuo de extracción de valor conductual. Como señala la autora: </p>
			<disp-quote>
				<p>Como veremos en los capítulos que siguen, la dinámica competitiva de estos nuevos mercados impulsa a los capitalistas de la vigilancia a adquirir fuentes de excedente conductual cada vez más predictivas: desde nuestras voces hasta nuestras personalidades y nuestras emociones incluso. Con el tiempo, los capitalistas de la vigilancia descubrieron que los datos conductuales más predictivos se obtienen interviniendo en la marcha misma de las cosas para empujar a, persuadir de, afinar y estimular ciertos comportamientos a fin de dirigirlos hacia unos resultados rentables. Fueron las presiones competitivas las que produjeron este cambio: ahora los procesos automatizados llevados a cabo por máquinas no solo conocen nuestra conducta, sino que también moldean nuestros comportamientos en igual medida. (p. 17)</p>
			</disp-quote>
			<p>En este contexto, las plataformas no solo organizan información: ordenan los afectos mismos que configuran la percepción del mundo social. La experiencia compartida, indispensable para la existencia de un <italic>demos democrático</italic>, es deteriorada por la personalización extrema que segmenta a los individuos en nichos afectivos cada vez más aislados. Se debilita así el tejido afectivo común que hace posible la identificación con un proyecto colectivo. La política, reducida a la administración de flujos de atención y capturas emocionales, pierde su capacidad de generar espacios de confrontación productiva, desplazándose hacia una gestión privatizada de identidades fragmentadas.</p>
			<p>En este escenario, la lógica del antagonismo democrático que Chantal Mouffe ha reivindicado en sus trabajos sobre agonismo democrático se ve profundamente alterada. Las plataformas digitales encapsulan a los usuarios en cámaras de eco donde sus pasiones e identidades son reforzadas constantemente, y donde el adversario queda cada vez más estigmatizado y alejado. En <italic>El poder de los afectos en la política</italic>, <xref ref-type="bibr" rid="B13">Mouffe (2020) </xref>subraya que los afectos son constitutivos de toda identificación política y que la política democrática no puede ser reducida a un mero ejercicio racional deliberativo. Los afectos movilizan pasiones colectivas, indispensables para construir los “nosotros” políticos, pero cuando estos afectos son gestionados por dispositivos algorítmicos orientados a maximizar la atención y polarizar las identidades, el agonismo productivo se pervierte. Como afirma Mouffe: </p>
			<disp-quote>
				<p>En oposición al enfoque que postula que la democracia consiste en afianzar procedimientos para alcanzar un consenso inclusivo, que requiere la eliminación de las pasiones de la esfera política, la visión agonista concibe la política democrática como la consolidación de instituciones que permitan transformar el antagonismo en agonismo: es decir, una expresión agonista del disenso. Lo importante es que el conflicto, cuando surge, no adopte la forma de un &quot;antagonismo&quot; (una contienda entre enemigos), sino la de un “agonismo&quot; (una contienda entre adversarios). La confrontación agonista difiere de la confrontación antagonista, no porque la primera permita un posible consenso, sino porque el oponente no es considerado un enemigo que debe ser destruido, sino un adversario cuya existencia se concibe como legítima. (p. 42) </p>
			</disp-quote>
			<p>En cambio, lo que se impone es un <italic>antagonismo gestionado</italic>, donde la confrontación desaparece como espacio de encuentro posible, dejando únicamente la lógica binaria de enemigos irreconciliables. Esta dinámica de segmentación emocional extrema, alimentada por algoritmos que refuerzan los sesgos y aíslan las burbujas afectivas, compromete la posibilidad misma de una comunidad política plural. La pluralidad democrática, lejos de expandirse, queda atrapada en nichos autorreferenciales, mientras el <italic>conflicto creativo</italic> -motor del agonismo- se ve reemplazado por una polarización gestionada por lógicas de captura algorítmica de la atención.</p>
			<p>La emergencia acelerada de la inteligencia artificial generativa (IAG) ha renovado inquietudes profundas sobre la posición del ser humano en el mundo, recordando la provocativa tesis de Michel Foucault sobre la &quot;muerte del hombre&quot;. El filósofo francés sostuvo que el hombre, lejos de ser una categoría eterna y universal, es una construcción histórica reciente, surgida con las ciencias humanas en el siglo XIX y destinada a desaparecer a medida que cambien las condiciones epistémicas.</p>
			<disp-quote>
				<p>Antes del fin del siglo XVIII, el <italic>hombre</italic> no existía. Como tampoco el poder de la vida, la fecundidad del trabajo o el espesor histórico del lenguaje. Es una criatura muy reciente que la demiurgia del saber ha fabricado con sus manos hace menos de doscientos años: pero ha envejecido con tanta rapidez que puede imaginarse fácilmente que había esperado en la sombra durante milenios el momento de iluminación en el que al fin sería conocido. (<xref ref-type="bibr" rid="B5">Foucault, 1968</xref>, p. 300)</p>
			</disp-quote>
			<p>Hoy, la creciente delegación de decisiones a sistemas automatizados, el tratamiento algorítmico de enormes volúmenes de información personal, y la capacidad cada vez más fina para modular y gestionar los afectos a través de plataformas digitales y aplicaciones, parecen anunciar esta nueva &quot;segunda muerte del hombre&quot; en clave tecnológica. En este contexto, resulta crucial realizar un análisis ético y político enfocado especialmente en los afectos y en las nuevas subjetividades configuradas algorítmicamente. Los algoritmos, al gestionar interacciones en redes sociales y plataformas digitales, moldean los afectos, condicionan los comportamientos y generan perfiles afectivos personalizados, lo que transforma profundamente las relaciones humanas y sociales. Esta <italic>subjetivación algorítmica</italic>, lejos de ser imparcial, implica formas inéditas de ejercicio del poder, lo que Foucault llamó &quot;biopolítica&quot;, extendiendo sus análisis sobre cómo las instituciones modernas controlan cuerpos y poblaciones, ahora mediadas por algoritmos capaces de anticipar, provocar o suprimir estados afectivos específicos.</p>
			<p>Esta condición de sujeción algorítmica remite directamente al diagnóstico foucaultiano de las tecnologías de subjetivación (<xref ref-type="bibr" rid="B7">Foucault, 2008</xref>). No hay sujeto fuera del poder: toda subjetividad es producida por relaciones normativas y discursivas. El régimen algorítmico introduce una mutación en este proceso, al externalizar los marcos de experiencia del yo y someterlos a una constante reconfiguración. Los algoritmos capturan los rastros digitales de nuestras prácticas cotidianas -gustos, elecciones, interacciones, tiempos de atención- y los convierten en insumos que alimentan modelos predictivos. Estos modelos no solo registran lo que somos o hemos sido, sino que, al ser retroalimentados como recomendaciones, preferencias sugeridas o límites normativos de conducta, reestructuran activamente el horizonte de posibilidades deseables para cada individuo.</p>
			<disp-quote>
				<p>En el horizonte de ese análisis tenemos, por el contrario, la imagen, la idea o el tema-programa de una sociedad en la que haya una optimización de los sistemas de diferencia, en la que se deje el campo libre a los procesos oscilatorios, en la que se conceda tolerancia a los individuos y las prácticas minoritarias, en la que haya una acción no sobre los participantes del juego, sino sobre las reglas del juego, y, para terminar, en la que haya una intervención que no sea del tipo de la sujeción interna [modelo disciplinario] de los individuos, sino de tipo ambiental. (<xref ref-type="bibr" rid="B6">Foucault, 2007</xref>, p. 303)</p>
			</disp-quote>
			<p>En este sentido, el régimen algorítmico constituye precisamente este tipo de <italic>intervención ambiental</italic> que señala Foucault: no actúa directamente sobre la voluntad de los individuos, sino que modula las condiciones estructurales dentro de las cuales emergen sus elecciones, deseos y percepciones. Así, la subjetividad deviene un <italic>circuito de retroalimentación continua</italic>, donde el presente es una función calculada del pasado, pero también un espacio de anticipación controlada. Las huellas acumuladas de nuestra actividad previa son reconfiguradas en tiempo real para moldear los futuros comportamientos, deseos y percepciones. En este sentido, los algoritmos actúan como dispositivos de gubernamentalidad afectiva: producen modos de subjetivación que ya no requieren la interiorización tradicional de normas, sino que operan a través de una actualización permanente de las condiciones de posibilidad de la experiencia individual. El sujeto algorítmico no es simplemente controlado desde fuera, sino que emerge como co-producción de sus propios datos en interacción con los circuitos de poder algorítmico.</p>
			<p>Judith <xref ref-type="bibr" rid="B1">Butler (1997)</xref> ahonda esta incongruencia: el sujeto depende de los marcos de reconocimiento que lo constituyen, aun cuando estos mismos marcos delimitan sus posibilidades de acción. La agencia, lejos de ser un acto puro de autodeterminación, se ejerce siempre desde dentro de una red de sujeciones que simultáneamente la posibilitan y la restringen. En el régimen algorítmico, esta paradoja alcanza un nuevo grado de complejidad: <italic>los algoritmos no solo anticipan nuestras elecciones, sino que configuran de antemano los marcos desde los cuales nuestras elecciones parecen libres</italic>. La experiencia de libertad se realiza, entonces, en un horizonte cuidadosamente diseñado de posibilidades previsibles y económicamente optimizadas. La cuestión de la resistencia en este contexto exige repensar los modos de intervención posibles. No se trata simplemente de oponer una voluntad soberana al poder algorítmico, sino de identificar los puntos donde los marcos de reconocimiento pueden ser desestabilizados, rearticulados o resignificados. El punto de interrupción no reside en la exterioridad absoluta al sistema, sino en los márgenes inestables de sus propias operaciones: en los desajustes, en los errores de predicción, en los espacios de ambigüedad afectiva que escapan a la codificación total. Allí, <italic>en la grieta</italic> de lo no anticipado, puede emerger la posibilidad de recomenzar la <italic>construcción del deseo</italic> desde condiciones mínimamente autónomas, explorando formas de agencia que, aun dentro de las redes de sujeción, abren la posibilidad de <italic>nuevos modos de subjetivación</italic>.</p>
			<p>Sin embargo, esta posibilidad de agencia enfrenta hoy una transformación más profunda: la propia estructura de lo político está siendo desplazada por un régimen de anticipación automatizada que redefine los márgenes mismos de lo que puede ser problematizado, debatido o resistido. El desafío de la gobernanza algorítmica, como insiste <xref ref-type="bibr" rid="B15">Sadin (2020)</xref>, no se reduce a un problema de transparencia de los códigos o de propiedad de los datos. Lo que está en juego es una <italic>mutación ontológica</italic> de la acción política misma: la externalización progresiva del juicio humano hacia sistemas automáticos de cálculo, la delegación de las decisiones normativas en arquitecturas computacionales que operan con base en correlaciones estadísticas y aprendizajes predictivos. En este nuevo régimen, el núcleo conflictivo de lo político -su apertura al debate, a la incertidumbre, al disenso irreductible- es desplazado por lógicas de anticipación preventiva, donde el riesgo, la contingencia y el desacuerdo son tratados como anomalías a corregir <italic>ex ante</italic>. La biopolítica cibernética que emerge administra preventivamente las desviaciones, produce un orden afectivo y conductual optimizado que neutraliza el acontecimiento imprevisible, pues desactiva el potencial constitutivo de lo político como espacio de creación de lo nuevo. En efecto, lo específico de este nuevo régimen no es solo que los algoritmos calculen mejor que los humanos, sino que instauran un <italic>sistema de performatividad anticipatoria</italic>: el hecho mismo de predecir transforma lo que predicen. Cada recomendación personalizada es ya un acto performativo que modifica el curso posible de los deseos. Así, la IAG deviene un dispositivo productor de mundo, más que un simple lector de patrones. ¿Hasta qué punto nuestras subjetividades pueden seguir reconociéndose en escenarios configurados desde estas lógicas?</p>
			<p>Para comprender la gravedad de este desplazamiento ontológico, es necesario interrogar el modo en que la inteligencia artificial interfiere en el circuito mismo de la autonomía práctica. No se trata sólo de algoritmos que calculan mejor nuestras elecciones, sino de algoritmos que comienzan a definir qué es una elección legítima. La optimización algorítmica redefine los márgenes de lo preferible, esculpe las sensibilidades colectivas mediante circuitos de retroalimentación continua. ¿Dónde queda, entonces, la contingencia irreductible del deseo político, su apertura a lo inesperado, a lo que aún no ha sido codificado por el pasado acumulado en bases de datos?</p>
			<p>En este marco, Mark <xref ref-type="bibr" rid="B2">Fisher (2016)</xref>, en su análisis del realismo capitalista, identifica uno de los mecanismos más potentes del orden contemporáneo: <italic>la clausura del horizonte de lo posible</italic>. No se trata solo de que las alternativas al capitalismo hayan sido derrotadas en el terreno económico o militar; se ha producido una colonización mucho más profunda: &quot; hoy en día, en cambio, la doctrina lleva un peso ontológico distinto: el capitalismo no es ya el mejor sistema posible, sino el <italic>único</italic> sistema posible&quot; (p. 127). Esta clausura ontológica del futuro es lo que permite al realismo capitalista operar como un clima cultural generalizado, como una atmósfera que condiciona los modos de percepción, deseo y acción, mucho más allá de las decisiones individuales conscientes. Los dispositivos algorítmicos, al convertirse en infraestructuras centrales de organización de lo social, actúan como potentes catalizadores de esta clausura. Al capturar los rastros digitales de nuestras actividades pasadas y traducirlos en modelos predictivos, cada acto de predicción no se limita a describir un patrón de comportamiento, sino <italic>que lo reproduce performativamente</italic>. Así, el algoritmo anticipa, prescribe y consolida futuros posibles. La historia, en este régimen, se cierra sobre sí misma, desactivando el acontecimiento político como irrupción de lo nuevo.</p>
			<p>Con Frédéric <xref ref-type="bibr" rid="B11">Lordon (2015)</xref> podemos introducir aquí un matiz esencial que complejiza el diagnóstico de captura algorítmica del deseo. Si bien los dispositivos algorítmicos modelan las trayectorias afectivas al nutrirse de los rastros de acción pasada, la sujeción afectiva -siguiendo la lectura spinozista de Lordon- no puede ser nunca absoluta. Los afectos, dice Lordon, siempre son modulados desde una multiplicidad de determinaciones, y los individuos, aunque sometidos a cadenas de causas que los atraviesan, conservan márgenes de variación interna en la intensidad y dirección de sus pasiones. En efecto, el orden social configura disposiciones afectivas colectivas que orientan los deseos dentro de los marcos dominantes, <italic>pero no puede garantizar su sincronización perfecta ni su clausura definitiva</italic>. La captura algorítmica intensifica los mecanismos de codificación afectiva, pero inevitablemente deja residuos de indeterminación, desajustes entre las anticipaciones modeladas y las composiciones singulares de los afectos. Allí radica, precisamente, el potencial político de la <italic>desincronización</italic>: la posibilidad de que los deseos capturados puedan desviarse, reorientarse o componerse de modos no previstos por el régimen de prescripción algorítmica.</p>
			<p>Para Lordon, el conflicto político es inseparable de estas dinámicas afectivas: cuando las cadenas de afectos dominantes generan configuraciones insoportables para ciertos grupos o colectivos, emergen movimientos de recomposición del deseo que buscan nuevos órdenes de afectación -como lo expuso <xref ref-type="bibr" rid="B16">Spinoza (1986)</xref> en el capítulo II de su <italic>Tratado político</italic> al hablar del derecho natural. Así, incluso dentro de los regímenes más sofisticados de captura, subsiste un principio de inestabilidad inherente a lo social: los cuerpos deseantes pueden articularse en nuevas composiciones colectivas capaces de sustraerse parcialmente al dispositivo. La política, en esta clave, no es el ejercicio de una voluntad soberana externa al orden de las pasiones, sino el trabajo colectivo de reorganización de los afectos en busca de una mayor potencia de existir (<xref ref-type="bibr" rid="B16">Spinoza, 1986</xref>, cap. II, §5, p. 86). </p>
			<p>Esta tarea colectiva de reorganización afectiva exige, a su vez, condiciones institucionales, culturales y pedagógicas que hoy se encuentran profundamente erosionadas. La educación ética, lejos de limitarse a una mera capacitación técnica para el manejo de dispositivos tecnológicos, debe concebirse como un proceso de formación crítica y afectiva que permita a los sujetos reconocer los mecanismos de captura normativa que configuran sus deseos y, al mismo tiempo, intervenir colectivamente en su reorganización. Implica habilitar la capacidad de deliberar, confrontar argumentos y ejercer la <italic>imaginación política</italic>, creando espacios públicos donde sea posible disputar los marcos de reconocimiento existentes y explorar futuros alternativos aún no codificados. Pero esta tarea choca con un problema estructural: el progresivo desplazamiento de los espacios de deliberación política hacia plataformas privadas, regidas por lógicas de monetización de la atención. Las infraestructuras digitales contemporáneas han devenido los nuevos escenarios de <italic>socialidad afectiva</italic>, pero en condiciones donde el interés económico converge con la segmentación afectiva. La polarización algorítmica no es un accidente, sino una estrategia de optimización de la rentabilidad atencional. De ahí que una de las preguntas que podemos hacernos hoy en el campo práctico (ética, política, educación), sea: ¿cómo reapropiar estos espacios para el disenso democrático? Pregunta necesaria, ya que la cuestión de la gobernanza algorítmica es, por tanto, inseparable de la cuestión de la arquitectura institucional de lo público. Las propuestas regulatorias centradas en la transparencia de los algoritmos o la propiedad de los datos, siendo necesarias, resultan insuficientes si no abordan el núcleo mismo de la producción de subjetividades. <italic>El problema no es solo lo que los algoritmos hacen, sino lo que nos hacen llegar a querer</italic>. Por ello, el verdadero desafío ético-político consiste en reconstruir condiciones colectivas de indeterminación afectiva: escenarios donde los deseos puedan ser confrontados, discutidos, negociados públicamente. El disenso no es un mal a gestionar, sino el principio vital de la democracia como producción continua de lo común. La ética de los afectos, en este marco, se convierte en una práctica permanente de problematización de los marcos afectivos dominantes.</p>
			<p>En este contexto, repensar el papel de la inteligencia artificial implica reconocer que ésta modela deseos individuales y configura activamente los escenarios colectivos donde esos deseos se articulan, se confrontan o se silencian. En otras palabras, la IAG participa en la arquitectura misma del espacio político contemporáneo, afectando sus condiciones de posibilidad. Este instrumento, que es más que técnico, refleja con fuerza las tensiones más profundas del presente: el deseo de seguridad ante la exposición al riesgo, la comodidad del cálculo en contraste con la incomodidad del conflicto, la promesa de optimización en oposición a la incertidumbre constitutiva de la política. No son simplemente tensiones funcionales, sino tensiones éticas de fondo, pues determinan los modos en que nos relacionamos con lo incierto, con el otro y con lo posible. En este horizonte, el llamado de Foucault a una ética del decir veraz recupera toda su potencia, no como gesto individual heroico, sino como práctica crítica que subvierte las formas dominantes de veridicción. En su curso de 1984, publicado bajo el título <italic>El coraje de la verdad</italic>, <xref ref-type="bibr" rid="B8">Foucault (2010) </xref>explora la figura de la parresía como una modalidad de decir veraz que compromete no solo lo que se dice, sino al propio sujeto que lo dice. Decir la verdad implica exponerse, desafiar el orden establecido, desestabilizar las reglas implícitas de lo decible. En ese sentido, la parresía no es solo un acto de franqueza, sino una forma de resistencia que pone en juego la vida misma del sujeto en nombre de una verdad que interrumpe. Ante el ordenamiento anticipatorio de la IAG, que pretende eliminar el conflicto mediante la predicción y la optimización, el coraje de la verdad exige reabrir el campo del disenso, sostener la fricción con lo instituido y afirmar el pensamiento como práctica transformadora capaz de resistir la clausura algorítmica del sentido.</p>
			<p>Según lo anterior, quizás el verdadero desafío ético no consista en establecer límites fijos a la inteligencia artificial, sino en sostener prácticas colectivas que mantengan abierto el campo de lo posible. Se trata de volver a pensar el deseo como principio político, de imaginar modos de existencia donde el conflicto no sea administrado ni reducido, sino habitado como condición misma de lo común. Allí donde los algoritmos buscan neutralizar la incertidumbre, la política reaparece como afirmación de lo incontrolable: el acontecimiento siempre inesperado de la emergencia colectiva del deseo compartido. Entonces: no es simplemente resistir la inteligencia artificial como amenaza externa, sino repensarla desde dentro de las condiciones que ella misma transforma. Lo común, en tanto producción política y afectiva, no desaparece con la mediación algorítmica, pero sí requiere nuevos modos de ser sostenido. La praxis democrática deberá entonces desplazarse hacia formas de invención colectiva que reconozcan la potencia de los afectos no solo como terreno de captura, sino como espacio de <italic>recomposición y creación</italic>. En esa dirección, la tarea no es restaurar una autonomía perdida, sino inventar una nueva forma de libertad: una que se construye en la tensión, el disenso y la apertura radical al otro.</p>
		</sec>
		<sec sec-type="conclusions">
			<title>IV. A modo de conclusión: pensar lo común ante la clausura algorítmica</title>
			<p>¿Qué formas de lo político pueden sostenerse en un mundo donde los algoritmos se anticipan a nuestras decisiones, modelan nuestras emociones y reconfiguran los márgenes mismos de lo pensable? Esta pregunta no puede responderse desde la nostalgia por formas anteriores de soberanía o deliberación, sino desde la invención de nuevas condiciones de posibilidad. Lo político, entendido como el campo abierto del disenso, del encuentro inesperado, del deseo colectivo en formación, no desaparece con la inteligencia artificial, pero sí corre el riesgo de ser encapsulado en circuitos de previsibilidad programada. Resistir esta clausura no es solo un acto técnico o jurídico, sino una apuesta afectiva y ontológica: <italic>sostener la contingencia del mundo ante su automatización progresiva</italic>.</p>
			<p>¿Cómo imaginar una ética de lo común que no se limite a regular los efectos que puede instaurar la inteligencia artificial, sino que intervenga en su capacidad de instituir formas de vida? No basta con exigir transparencia o propiedad de los datos: es necesario cuestionar los marcos afectivos y normativos que los algoritmos producen. Una ética de lo común debe recuperar la pregunta por lo común, no como dato dado, sino como <italic>construcción en disputa</italic>. Esto supone generar espacios donde los afectos puedan circular sin ser inmediatamente codificados, donde el conflicto no sea evitado, sino trabajado colectivamente, donde los deseos no sean gestionados, sino debatidos en su orientación. La ética, en este sentido, no es una disciplina del comportamiento, sino una <italic>práctica política de apertura</italic>.</p>
			<p>¿De qué modo formar sujetos capaces de habitar esta apertura sin reducirla a un ejercicio individual de resistencia? La educación ética debe reapropiarse de su dimensión política, no para adoctrinar ni moralizar, sino para formar en la capacidad de problematizar: aprender a leer las estructuras que organizan nuestros afectos, a imaginar alternativas a lo que se presenta como necesario, a sostener el desacuerdo como condición de posibilidad del pensamiento. En tiempos de gubernamentalidad algorítmica, esta tarea se vuelve más urgente: no se trata de restaurar una autonomía ilusoria, sino de inventar colectivamente nuevas formas de habitar la interdependencia y la afectación mutua.</p>
			<p>No hay garantías. Pero quizá, como sugería Foucault, la libertad no resida en sustraerse al poder, sino en intervenirlo desde dentro, desestabilizar sus puntos de anclaje y multiplicar sus líneas de fuga. Ante el cierre algorítmico de lo posible, se vuelve urgente afirmar que el pensamiento, el afecto y el deseo -como prácticas inacabadas de lo común- siguen siendo una apuesta ética y política que vale la pena sostener.</p>
		</sec>
	</body>
	<back>
		<ref-list>
			<title>Referencias bibliográficas</title>
			<ref id="B1">
				<mixed-citation>Butler, J. (1997). <italic>The psychic life of power. Theories in Subjection</italic>. Stanford University Press. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1515/9781503616295">https://doi.org/10.1515/9781503616295</ext-link>
				</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Butler</surname>
							<given-names>J</given-names>
						</name>
					</person-group>
					<year>1997</year>
					<source>The psychic life of power. Theories in Subjection</source>
					<publisher-name>Stanford University Press</publisher-name>
					<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1515/9781503616295">https://doi.org/10.1515/9781503616295</ext-link>
				</element-citation>
			</ref>
			<ref id="B2">
				<mixed-citation>Fisher, M. (2016). <italic>Realismo capitalista. ¿No hay alternativa?</italic> Caja Negra Editora.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Fisher</surname>
							<given-names>M</given-names>
						</name>
					</person-group>
					<year>2016</year>
					<source>Realismo capitalista. ¿No hay alternativa?</source>
					<publisher-name>Caja Negra Editora</publisher-name>
				</element-citation>
			</ref>
			<ref id="B3">
				<mixed-citation>Floridi, L. (2014). <italic>The Fourth Revolution: How the Infosphere is Reshaping Human Reality</italic>. Oxford University Press.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Floridi</surname>
							<given-names>L</given-names>
						</name>
					</person-group>
					<year>2014</year>
					<source>The Fourth Revolution: How the Infosphere is Reshaping Human Reality</source>
					<publisher-name>Oxford University Press</publisher-name>
				</element-citation>
			</ref>
			<ref id="B4">
				<mixed-citation>Floridi, L. (2015). Hiperhistoria, el surgimiento de los sistemas multiagente (SMA) y el diseño de una infraética. En X. Martínez Ruiz (Coord.), <italic>Infoesfera</italic> (pp. 17-46). Instituto Politécnico Nacional.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Floridi</surname>
							<given-names>L</given-names>
						</name>
					</person-group>
					<year>2015</year>
					<chapter-title>Hiperhistoria, el surgimiento de los sistemas multiagente (SMA) y el diseño de una infraética</chapter-title>
					<person-group person-group-type="author">
						<name>
							<surname>Martínez Ruiz</surname>
							<given-names>X</given-names>
						</name>
					</person-group>
					<source>Infoesfera</source>
					<fpage>17</fpage>
					<lpage>46</lpage>
					<publisher-name>Instituto Politécnico Nacional</publisher-name>
				</element-citation>
			</ref>
			<ref id="B5">
				<mixed-citation>Foucault, M. (1968). <italic>Las palabras y las cosas. Una arqueología de las ciencias humanas</italic>. Siglo Veintiuno editores.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Foucault</surname>
							<given-names>M</given-names>
						</name>
					</person-group>
					<year>1968</year>
					<source>Las palabras y las cosas. Una arqueología de las ciencias humanas</source>
					<publisher-name>Siglo Veintiuno editores</publisher-name>
				</element-citation>
			</ref>
			<ref id="B6">
				<mixed-citation>Foucault, M. (2007). <italic>El nacimiento de la biopolítica. Curso en el Collège de France (1978-1979)</italic>. Fondo de Cultura Económica.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Foucault</surname>
							<given-names>M</given-names>
						</name>
					</person-group>
					<year>2007</year>
					<source>El nacimiento de la biopolítica. Curso en el Collège de France (1978-1979)</source>
					<publisher-name>Fondo de Cultura Económica</publisher-name>
				</element-citation>
			</ref>
			<ref id="B7">
				<mixed-citation>Foucault, M. (2008). <italic>Tecnologías del yo</italic>. Ediciones Paidós Ibérica.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Foucault</surname>
							<given-names>M</given-names>
						</name>
					</person-group>
					<year>2008</year>
					<source>Tecnologías del yo</source>
					<publisher-name>Ediciones Paidós Ibérica</publisher-name>
				</element-citation>
			</ref>
			<ref id="B8">
				<mixed-citation>Foucault, M. (2010). <italic>El coraje de la verdad</italic>. Fondo de Cultura Económica.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Foucault</surname>
							<given-names>M</given-names>
						</name>
					</person-group>
					<year>2010</year>
					<source>El coraje de la verdad</source>
					<publisher-name>Fondo de Cultura Económica</publisher-name>
				</element-citation>
			</ref>
			<ref id="B9">
				<mixed-citation>Han, B.C. (2022). <italic>Infocracia. La digitalización y la crisis de la democracia</italic>. Taurus.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Han</surname>
							<given-names>B.C</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<source>Infocracia. La digitalización y la crisis de la democracia</source>
					<publisher-name>Taurus</publisher-name>
				</element-citation>
			</ref>
			<ref id="B10">
				<mixed-citation>Laclau, E. y Mouffe, Ch. (2001). <italic>Hegemony and Socialist Strategy. Towards a Radical Democratic Politics</italic> (Second Edition). Verso.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Laclau</surname>
							<given-names>E.</given-names>
						</name>
						<name>
							<surname>Mouffe</surname>
							<given-names>Ch</given-names>
						</name>
					</person-group>
					<year>2001</year>
					<source>Hegemony and Socialist Strategy. Towards a Radical Democratic Politics</source>
					<edition>Second Edition</edition>
					<publisher-name>Verso</publisher-name>
				</element-citation>
			</ref>
			<ref id="B11">
				<mixed-citation>Lordon, F. (2015<italic>).</italic> 
 <italic>Capitalismo, deseo y servidumbre: Marx y Spinoza</italic>. Tinta Limón.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Lordon</surname>
							<given-names>F</given-names>
						</name>
					</person-group>
					<year>2015</year>
					<source>Capitalismo, deseo y servidumbre: Marx y Spinoza</source>
					<publisher-name>Tinta Limón</publisher-name>
				</element-citation>
			</ref>
			<ref id="B12">
				<mixed-citation>Lordon, F. (2018). <italic>La sociedad de los afectos. Por un estructuralismo de las pasiones</italic>. Adriana Hidalgo editora.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Lordon</surname>
							<given-names>F</given-names>
						</name>
					</person-group>
					<year>2018</year>
					<source>La sociedad de los afectos. Por un estructuralismo de las pasiones</source>
					<publisher-name>Adriana Hidalgo editora</publisher-name>
				</element-citation>
			</ref>
			<ref id="B13">
				<mixed-citation>Mouffe, Ch. (2020). <italic>El poder de los afectos en la política</italic>. <italic>Hacia una revolución democrática y verde</italic>. Siglo Veintiuno editores.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Mouffe</surname>
							<given-names>Ch</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<source>El poder de los afectos en la política. Hacia una revolución democrática y verde</source>
					<publisher-name>Siglo Veintiuno editores</publisher-name>
				</element-citation>
			</ref>
			<ref id="B14">
				<mixed-citation>Mouffe, Ch. (1992). Feminism, Citizenship, and Radical Democratic Politics. En J. Butler y J. W. Scott (Eds.), <italic>Feminists Theorize the Political</italic> (pp. 369-384). Routledge.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Mouffe</surname>
							<given-names>Ch</given-names>
						</name>
					</person-group>
					<year>1992</year>
					<source>Feminism, Citizenship, and Radical Democratic Politics</source>
					<person-group person-group-type="editor">
						<name>
							<surname>Butler</surname>
							<given-names>J</given-names>
						</name>
						<name>
							<surname>Scott</surname>
							<given-names>J. W</given-names>
						</name>
					</person-group>
				</element-citation>
			</ref>
			<ref id="B15">
				<mixed-citation>Sadin, E. (2020). <italic>La inteligencia artificial o el desafío del siglo. Anatomía de un antihumanismo radical</italic>. Caja Negra editora. </mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Sadin</surname>
							<given-names>E</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<source>La inteligencia artificial o el desafío del siglo. Anatomía de un antihumanismo radical</source>
					<publisher-name>Caja Negra editora</publisher-name>
				</element-citation>
			</ref>
			<ref id="B16">
				<mixed-citation>Spinoza, B. (1986). <italic>Tratado político</italic>. Alianza Editorial. </mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Spinoza</surname>
							<given-names>B</given-names>
						</name>
					</person-group>
					<year>1986</year>
					<source>Tratado político</source>
					<publisher-name>Alianza Editorial</publisher-name>
				</element-citation>
			</ref>
			<ref id="B17">
				<mixed-citation>Spinoza, B. (2000). <italic>Ética demostrada según el orden geométrico</italic>. Editorial Trotta. </mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Spinoza</surname>
							<given-names>B</given-names>
						</name>
					</person-group>
					<year>2000</year>
					<source>Ética demostrada según el orden geométrico</source>
					<publisher-name>Editorial Trotta</publisher-name>
				</element-citation>
			</ref>
			<ref id="B18">
				<mixed-citation>Zuboff, Sh. (2019). <italic>La era del capitalismo de la vigilancia. La lucha por un futuro humano frente a las nuevas fronteras del poder</italic>. Paidós.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Zuboff</surname>
							<given-names>Sh</given-names>
						</name>
					</person-group>
					<year>2019</year>
					<source>La era del capitalismo de la vigilancia. La lucha por un futuro humano frente a las nuevas fronteras del poder</source>
					<publisher-name>Paidós</publisher-name>
				</element-citation>
			</ref>
		</ref-list>
		<fn-group>
			<title>Notas:</title>
			<fn fn-type="other" id="fn2">
				<label>¿Cómo citar?: </label>
				<p> Ayala Román, A. M. (2025). Ética, afectos y política en la era algorítmica. <italic>Praxis Filosófica,</italic> (62S), e20415068. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.25100/pfilosofica.v0i62S.15068">https://doi.org/10.25100/pfilosofica.v0i62S.15068</ext-link>
				</p>
			</fn>
			<fn fn-type="other" id="fn3">
				<label>Datos de financiación del artículo: </label>
				<p> La autora declara que no recibió financiación para este artículo</p>
			</fn>
			<fn fn-type="other" id="fn4">
				<label>Implicaciones éticas: </label>
				<p> La autora no tiene ningún tipo de implicación ética que se deba declarar en la escritura y publicación de este artículo</p>
			</fn>
			<fn fn-type="other" id="fn7">
				<label>Autor de correspondencia:</label>
				<p> Ana María Ayala Román. amayala@icesi.edu.co. Cl. 18 #122-135, Barrio Pance, Cali, Valle del Cauca (Universidad Icesi)<bold>.</bold></p>
			</fn>
			<fn fn-type="other" id="fn8">
				<label>Declaración de uso de inteligencia artificial: </label>
				<p> La autora declara que no utilizó ningún programa o aplicación de inteligencia artificial</p>
			</fn>
		</fn-group>
	</back>
</article>