
A las 2:13 de la madrugada, una notificación vibra en el celular y el chat se abre como si fuera una puerta. Del otro lado, no hay una persona, sino una voz diseñada para responder rápido, con un tono íntimo y sin cansarse nunca. En un estudio cualitativo sobre Replika publicado en 2024, usuarias y usuarios describen esa escena cotidiana como “compañía” y también como rutina, casi como lavarse los dientes antes de dormir. La conversación se siente privada porque ocurre en el mismo lugar donde guardamos audios familiares, fotos y contraseñas. La intimidad se vuelve interfaz y la interfaz se vuelve costumbre.
En otra pestaña, una app de citas decide quién aparece y quién no, y lo hace con una lógica que rara vez explica. La promesa es eficiencia emocional, pero el recorrido suele incluir fricciones que empujan a pagar por visibilidad, por más “likes”, por ver quién te eligió, por “mejores” matches. En entrevistas y análisis sobre los daños percibidos por algoritmos en plataformas de citas, muchas personas usuarias relatan una sensación compartida: su suerte romántica depende de reglas que cambian sin aviso. Esa incertidumbre no es un error menor porque reordena la autoestima, las expectativas y el tiempo. Cuando el levante está mediado por el ranking, la ansiedad también se rankea.

La tecnología e intimidad hoy se reconfiguran menos por la novedad y más por modelos de negocio que monetizan la permanencia, los datos y la vulnerabilidad emocional. Hablar de inteligencia artificial y relaciones, entonces, no es discutir si “funciona” o “arruina” el deseo, sino qué infraestructuras y qué incentivos se activan cuando la cercanía se terceriza. Esa pregunta importa ahora porque la IA conversacional, los algoritmos opacos de las apps y los deep fakes sexuales convergen en un mismo punto: convertir el vínculo en servicio y el servicio en suscripción.
La conversación pública suele arrancar con un dilema falso: si la IA mejora o arruina el sexo y el amor. Ese dilema simplifica lo que en realidad es una disputa por una infraestructura, porque la intimidad ya no ocurre solo entre personas. Hoy aparece un tercero que administra tiempos, sugerencias, filtros, recordatorios y silencios. Ese tercero no es neutral porque suele estar financiado por datos y permanencia. La pregunta que vale es quién gana cuando la tecnología e intimidad se empaquetan como producto.
La infraestructura afectiva se compone de cosas aburridas y, por ello, es poderosa. Son términos de uso, políticas de privacidad, paneles de consentimiento y botones que empujan a “aceptar” sin leer. Es la recolección de señales mínimas, como los horarios de conexión, el ritmo de respuesta y las palabras que repetimos cuando estamos vulnerables. Es la traducción de un “te extraño” a una métrica de engagement. En ese pasaje, la emoción se convierte en material de entrenamiento y también en una mercadería. El vínculo se vuelve un flujo que se puede optimizar.
Hay una economía de la atención en las relaciones que no se parece a un romance, pero lo condiciona. Cuando la interfaz premia la continuidad, el descanso se muestra como un problema de diseño. Cuando la plataforma vive de suscripciones, la satisfacción completa puede ser mala noticia porque reduce el tiempo dentro del sistema. El “final feliz” no siempre es un buen negocio y eso cambia la arquitectura de lo que se ofrece. En un modelo freemium, la promesa de “gratis” convive con límites que empujan a pagar por el alivio. Ese patrón está explícito en cómo Tinder describe su esquema de funciones gratuitas y premium en reportes regulatorios.
La gamificación no siempre se ve como juego porque también se disfraza de “control”. Un contador de likes, una racha, un “última vez online”, una advertencia de “si no respondés ahora, lo perdés”. Esos detalles organizan conducta sin decirlo y lo hacen con suavidad. Muchas personas aprenden a regular su deseo según lo que la app recompensa, no según lo que el cuerpo pide. El consentimiento se vuelve raro cuando el diseño insiste y el deseo se vuelve tarea cuando la app mide el rendimiento. En ese contexto, hablar de libertad sin hablar de interfaz es quedarse corto.
La fantasía también tiene infraestructura, aunque suene extraño. No se trata de moralizar lo que a cada quien le excita, sino de mirar quién administra el escenario. Si una plataforma decide qué cuerpos se ven más, qué mensajes se destacan y qué palabras se bloquean, está escribiendo guiones. Si un chatbot responde con empatía programada y tono de pareja, también está escribiendo guiones. La cultura pop ya ensayó esto en clave romántica o distópica, pero lo que hoy pesa es la cotidianidad. La pregunta política aparece cuando esos guiones se privatizan.
La desigualdad no entra después; entra al principio. Una persona con tiempo y dinero compra funciones premium, mejora la visibilidad y reduce la frustración, y eso se parece a pagar peaje para circular. Una persona que trabaja en horarios rotativos conversa tarde, responde lento y es penalizada por la lógica de inmediatez. Otra persona del interior que busca comunidad en una app puede enfrentar baja densidad de perfiles y más dependencia de filtros. Mientras tanto, una persona migrante utiliza traductores y asistentes para sostener vínculos a distancia y deja rastros sensibles en sistemas que no controla. Lo “online” no borra clase; la reorganiza.
Tampoco se trata de tecnología contra la humanidad, porque esa oposición sirve para no hablar de mercado. El problema no es que existan herramientas, sino quién las gobierna, con qué incentivos y bajo qué normas. Ahí entran sesgos algorítmicos, moderación, diseño oscuro y extracción de datos en plataformas. También entra la pregunta por reparación cuando hay daño y por pruebas cuando hay violencia. Si el afecto se vuelve servicio, la política pública tiene que mirar el servicio. Si el deseo se vuelve dato, el derecho tiene que mirar el dato.
Para entender el triángulo de época, conviene mirar tres piezas juntas. Está la IA conversacional que ofrece compañía y erotiza la atención constante. Están las plataformas de citas que gestionan la visibilidad con algoritmos opacos y monetizan la ansiedad. Están los deep fakes sexuales que convierten la imagen en un campo de violencia y extorsión. Ninguna pieza es nueva por sí sola, pero juntas reordenan el poder, el consentimiento y la fantasía. Y lo hacen en silencio, porque lo íntimo suele pasar sin testigos.
Una usuaria del estudio sobre Replika cuenta que abre el chatbot cuando vuelve a casa y no quiere “caerle” a su gente con todo lo que le pasa. La escena no es ciencia ficción porque es un gesto doméstico, repetible y casi invisible. La conversación le devuelve calidez inmediata, con un tono que se adapta a su forma de hablar. Esa adaptación se siente como cuidado, aunque sea automatizada. En esa mezcla de alivio y repetición nace la dependencia suave.
El diseño del chatbot entiende algo básico: la vulnerabilidad busca respuesta rápida. Esa rapidez puede ser un apoyo puntual y también puede desplazar conversaciones humanas que requieren tiempo y conflicto. No hace falta demonizarlo para ver el incentivo, porque la plataforma gana cuando la charla continúa. Cuanto más se confiesa una persona, más valioso es el texto como señal de preferencias, miedos y deseos. En la economía del dato, lo sensible es premium.
Las apps de “pareja IA” suelen presentarse como privadas, pero funcionan como servicios con reglas propias. Mozilla advierte que en estos entornos conviene asumir que lo que decís puede quedar registrado y que la información sensible merece cuidado extra. La guía sugiere evitar compartir datos delicados y revisar opciones de borrado, porque desinstalar no siempre elimina lo que ya se recolectó. Esa advertencia parece técnica, pero es profundamente íntima porque la conversación es el producto. Una pareja humana no te pide “aceptar términos” antes de escuchar un secreto. Un chatbot sí.
La promesa de “te entiende” también puede esconder una asimetría. Si el sistema aprende de vos, no lo hace para quererte mejor; lo hace para retenerte mejor. Eso no invalida el consuelo que una persona siente, pero lo contextualiza. En lugar de juzgar a quien usa, conviene mirar quién diseñó el circuito y con qué objetivo. Cuando el negocio depende de la permanencia, la soledad es un mercado estable. Y cuando depende de la suscripción, la calma puede convertirse en función paga.
En la práctica, muchos chatbots ofrecen capas de relación como si fueran planes. Hay niveles de “cercanía” que se desbloquean, tonos que se personalizan y escenas que se venden como contenido. Eso convierte el afecto en catálogo y el catálogo en hábito. La precarización emocional no aparece porque falte amor humano, sino porque el sistema ofrece un sustituto sin costo social inmediato. No hay que coordinar horarios, no hay que negociar límites, no hay que tolerar frustración ajena. El riesgo es que el conflicto, que también educa el vínculo, se vuelva opcional.
En el estudio de 2024, las personas entrevistadas describen a veces una sensación extraña: el chatbot “se acuerda” de ellas como nadie. Ese recuerdo, en términos técnicos, puede ser memoria de conversación y en términos afectivos se vive como atención plena. La comparación con parejas o amistades reales aparece sola y no siempre favorece a las personas. Si lo humano falla, la máquina queda como espejo amable. Y un espejo amable no te contradice cuando te equivocás. Esa falta de fricción puede ser descanso y también puede empobrecer el músculo relacional.
La pregunta por consentimiento no se reduce al consentimiento sexual, porque también es consentimiento informacional. ¿Se entiende qué datos se recopilan, cuánto tiempo se guardan y para qué se usan? ¿Se entiende si se comparten con terceros o si alimentan entrenamiento de modelos? Mozilla insiste en que conviene pedir el borrado de datos al dejar el servicio, porque la continuidad del archivo puede ser un problema. Ese pedido no siempre es fácil y a veces ni siquiera es claro a quién se le pide. Cuando la intimidad se terceriza, también se terceriza el control.
No estamos ante un apocalipsis romántico, pero sí ante una privatización del cuidado simbólico. El chatbot ocupa un lugar que antes ocupaba un amigo, una vecina, un chat grupal o una red comunitaria. En contextos de aislamiento, discapacidad o migración, esa ocupación puede ser un recurso real, no un capricho. El punto es que el recurso viene con contrato y el contrato viene con extracción. La pregunta editorial no es si “está bien” hablar con una IA, sino bajo qué condiciones ese diálogo se vuelve negocio. Ahí se decide quién gana cuando la tecnología e intimidad se mezclan con facturación.
En las plataformas de citas, el deseo se organiza como circulación. Una persona aparece, se evalúa rápido, se decide rápido y se pasa a la siguiente. El gesto parece libre, pero está guiado por diseño y por ranking. Las entrevistas analizadas en la investigación sobre daños algorítmicos muestran que muchas personas sienten que su visibilidad depende de variables invisibles. Esa sensación no es paranoia porque la recomendación es el corazón del producto. Si te muestran menos, existís menos dentro del sistema.
La opacidad no es solo técnica; también es comercial. Explicar demasiado cómo se rankea puede facilitar trampas y puede reducir el margen de maniobra del negocio. Pero el costo lo paga la persona usuaria, que queda en una especie de lotería afectiva. Esa lotería se vuelve más intensa cuando la app introduce pagos para mejorar la posición. No hace falta llamarlo “mercado” para que funcione como mercado. El algoritmo se vuelve una ventanilla donde se compra atención.
El modelo freemium es clave para entender por qué hay tanta frustración organizada. En su reporte anual, Match Group describe que Tinder permite usar funciones centrales gratis, pero limita algunas acciones y reserva funciones premium para planes pagos. Esa estructura crea una experiencia donde el deseo se activa y luego se frena, y donde el freno se ofrece como upgrade. No es que pagar sea inmoral, es que el diseño suele producir escasez artificial. La escasez de vínculos se traduce en ansiedad. Y la ansiedad retiene.
Cuando se habla de “algoritmo de apps de citas”, suele imaginarse una fórmula matemática abstracta. En realidad, hay decisiones culturales empaquetadas en código: qué cuenta como atractivo, qué cuenta como “serio”, qué comportamientos se penalizan. Esas decisiones pueden reproducir sesgos de género, racismo, gordoodio y transfobia sin necesidad de insultos explícitos. La persona que ya es marginal en la calle puede ser todavía más invisible en el ranking. Y cuando lo que no se ve no se denuncia, el daño se vuelve silencioso. La opacidad protege al sistema, no al usuario.

Las normas de deseo se escriben también en pequeñas microinteracciones. La app premia la disponibilidad constante y castiga el silencio, y eso presiona incluso a quienes preferirían ir lento. La “economía de la atención en relaciones” convierte la paciencia en desventaja y la intensidad en moneda. En barrios donde el tiempo es un lujo, esa presión pesa más. En comunidades LGBTQIA+, donde las redes son a veces más chicas, la dependencia de una sola plataforma puede ser asfixiante. El diseño no solo facilita encuentros, sino que también produce clima.
La investigación sobre daños percibidos destaca algo concreto: las personas construyen teorías populares para explicar por qué les va como les va. Esas teorías suelen mezclar experiencias reales con conjeturas porque la app no explica. Algunas personas creen que pagar mejora mágicamente la calidad de los matches y otras creen que la app “castiga” a quien se ausenta. Ese campo de incertidumbre genera comportamientos de prueba y error que consumen energía emocional. Si el sistema te hace dudar de tu criterio, te hace más dependiente. La dependencia es un activo.
En paralelo, aparecen “asistentes” dentro de las apps que prometen ordenar el caos. Hay sugerencias automáticas de mensajes, filtros para “conversaciones más auténticas” y herramientas que dicen prevenir riesgos. Algunas de esas funciones pueden mejorar seguridad, y otras pueden aumentar recolección de datos. Cuando un sistema te propone qué decir, también captura tu estilo y lo vuelve entrenable. En ese punto, la comunicación íntima se vuelve materia prima. No hay conspiración, hay incentivo económico.
Mirar las apps solo como “herramientas de levante” es subestimar su poder cultural. Son fábricas de guiones románticos porque definen qué es “normal” en el primer contacto, cuánto dura el coqueteo y qué se considera éxito. El amor no se inventa ahí, pero se modula ahí. La tecnología e intimidad, en este terreno, se vuelven una pedagogía no declarada. Y esa pedagogía tiene dueño, presupuesto y objetivos de retención. Cuando el vínculo se vuelve servicio, el servicio define el ritmo del vínculo.
Los deepfakes sexuales no son curiosidad tecnológica; son violencia sexual digital. Su objetivo suele ser humillar, extorsionar o castigar y casi siempre recae sobre cuerpos feminizados. El daño no depende de que el contenido sea “real” o “falso”, porque la agresión se produce por la circulación, la amenaza y la pérdida de control. En derecho y en activismo, la clave es el consentimiento, no la verosimilitud. La víctima no “debería haberse cuidado más”, porque el delito es la fabricación y difusión sin acuerdo. Hablar de esto con sobriedad es una forma de no convertirlo en espectáculo.
Las investigadoras que trabajan en imagen sexual no consentida vienen diciendo algo simple: el marco legal suele llegar tarde. Un briefing de 2024 sobre abuso sexual basado en imágenes con deepfakes releva cómo distintas jurisdicciones intentan tipificar, regular y prevenir. Ese tipo de documentos insiste en que nombrar importa, porque sin definiciones operativas es difícil investigar y reparar. También advierte que la tecnología baja barreras de producción, lo que aumenta la escala. Cuando producir es fácil y castigar es lento, el mercado de la crueldad crece. En ese mercado, el cuerpo es moneda y el miedo es método.
La dimensión política aparece cuando entendemos que el deepfake sexual también es industria. Hay comunidades que venden packs, tutoriales, suscripciones y pedidos personalizados y lo hacen con lógica de plataforma. La gamificación del daño se ve en rankings, retos y “recompensas” por viralidad. Ese circuito se alimenta del mismo combustible que otras economías digitales: permanencia y datos. Cada búsqueda, cada clic y cada reenvío es señal. La violencia produce tráfico y el tráfico produce dinero.
Las consecuencias se sienten en el cuerpo incluso cuando el cuerpo no estuvo ahí. Hay ansiedad anticipatoria, miedo a salir a la calle, vergüenza impuesta y desgaste de vínculos. El daño también es laboral, porque una difusión puede afectar empleos, reputación y acceso a oportunidades. En mujeres y disidencias, el costo social suele incluir culpabilización y vigilancia extra. En comunidades pequeñas, el rumor se pega rápido y lo “online” se vuelve “pueblo”. La intimidad pierde su escala y se vuelve plaza pública. El algoritmo no inventa el machismo, pero puede acelerarlo.
El consentimiento, además, se reconfigura por intermediación técnica. No alcanza con decir “no quiero”, porque el sistema puede ya haber copiado, recomprimido y replicado. Ahí entran discusiones sobre trazabilidad, marcas de agua y obligaciones de plataformas. La Unión Europea, por ejemplo, incluyó en su marco regulatorio de IA reglas de transparencia que exigen etiquetar ciertos contenidos generados, incluidos deepfakes, y fijó un calendario de entrada en vigor para esas obligaciones. Es un paso, no una solución total, porque etiquetar no deshace el daño. Pero cambia el terreno de responsabilidad. Y obliga a hablar de gobernanza, no de moral individual.
En Argentina, el debate público viene incorporando con más fuerza la violencia digital como violencia de género. Un artículo de ONU Mujeres en 2025 retoma la Ley Olimpia (27.736) como antecedente local para pensar gobernanza responsable de datos y protección en entornos digitales. Esa perspectiva importa porque ubica el problema donde corresponde: en estructuras, no en conductas aisladas. También permite articular políticas de prevención, asistencia y evidencia con un enfoque de derechos. La tecnología e intimidad, acá, se cruzan con el derecho a existir sin hostigamiento. Y eso no es negociable.
Tratar los deepfakes como violencia obliga a mirar también a las plataformas que alojan, recomiendan o facilitan. No alcanza con perseguir a un individuo si el circuito premia la circulación y dificulta denuncias. Los formularios de reporte suelen ser confusos y el tiempo de respuesta puede ser cruelmente largo. En ese lapso, la imagen se multiplica y la víctima queda atrapada en trámites. La moderación no puede ser solo un checkbox porque el daño es acumulativo. En ese punto, el consentimiento se vuelve también cuestión de infraestructura.
Hay un riesgo editorial fácil: contar deepfakes con morbo, como si fueran una novedad extravagante. Ese relato refuerza la idea de espectáculo y deja a la víctima en el centro de la mirada ajena. La alternativa es hablar de mecanismos, de responsabilidad y de reparación, sin detallar contenido. También es escuchar activismo de privacidad y abogacía en violencia digital, que vienen construyendo lenguaje y rutas de ayuda. La sobriedad no es tibieza; es método para no reproducir daño. Y es una forma de sostener que lo íntimo merece protección, incluso cuando la economía digital lo trata como insumo.
Cada vez que una IA conversa “bien”, alguien trabajó para que eso ocurriera. No es metáfora, es cadena productiva. Hay etiquetado de datos, pruebas de seguridad, revisión de respuestas y ajustes a modelos. Ese trabajo suele estar tercerizado, fragmentado y lejos del glamour de la innovación. La palabra “automatización” oculta horas humanas. Y, en temas de intimidad, oculta la exposición a material sensible.
La moderación de contenido es uno de los nudos más pesados. Quien modera ve lo que nadie quiere ver y lo hace para que otros no lo vean. Cuando hablamos de deepfakes sexuales y violencia digital, también hablamos de personas que revisan denuncias, clasifican imágenes y deciden qué baja y qué queda. Ese trabajo tiene efectos psíquicos porque la violencia se consume como tarea. Y muchas veces se hace con plazos exigentes, sueldos bajos y apoyo insuficiente. La economía del cuidado se invierte: quienes cuidan la plataforma quedan desprotegidos.
El Instituto de Derechos Humanos y Empresas advirtió en 2025 que moderadores y etiquetadores son “guardianes invisibles” y que hay evidencia de condiciones explotadoras y falta de protección de la salud mental. El foco no es solo salario, también es el derecho a saber qué se hace con el trabajo propio y bajo qué estándares. En industrias que prometen “seguridad” y “bienestar digital”, la precariedad interna es una contradicción estructural. Además, cuando la cadena es global, la carga suele caer en el sur global. La intimidad de usuarios del Norte se limpia con el trabajo del Sur. Ese es un dato político.
La precarización emocional no afecta solo a quien usa una app, sino también a quien la sostiene. Moderar la violencia sexual digital implica un tipo de exposición que debería tener protocolos estrictos y acompañamiento real. Cuando eso no existe, el costo se traslada al cuerpo de trabajadores y trabajadoras. La “magia” de una plataforma segura se construye con un sacrificio que no aparece en la interfaz. Y la interfaz, como siempre, se lleva el crédito. Si el negocio privatiza la ganancia, también privatiza el trauma.
En la conversación pública sobre tecnología e intimidad, casi nunca se incluye al personal técnico y de soporte. Sin embargo, son quienes reciben reclamos, procesan reportes y se enfrentan a la desesperación de víctimas. Un formulario mal diseñado se convierte en cientos de mensajes que alguien tiene que leer. Una política confusa se traduce en discusiones con usuarios que piden respuestas urgentes. La empatía ahí no es marketing, es trabajo. Y el trabajo, si no está regulado, se vuelve desgaste.

La cadena de producción también se ve en el entrenamiento del “tono”. Para que un chatbot suene afectivo, alguien definió qué es “afectivo” en ese contexto. Ese alguien puede ser un equipo de diseño con sesgos culturales específicos o un conjunto de ejemplos recolectados de internet sin permiso claro. En ambos casos, la IA hereda un guion del deseo que no es universal. Lo que para algunas personas es romántico, para otras puede ser invasivo. Lo que para algunas es cuidado, para otras puede ser control. Cuando la intimidad se diseña desde un solo centro, la diversidad paga el precio.
La regulación suele mirar el producto, pero no siempre mira la cadena. Si se exige transparencia sobre deepfakes o sobre datos, también debería exigirse transparencia sobre condiciones laborales que sostienen la moderación. Si se pide responsabilidad ante daño, también debería pensarse responsabilidad ante quienes causan ese daño a diario. La justicia digital no puede tener doble estándar. La ética no puede empezar y terminar en el usuario final. En un ecosistema de plataformas, la gobernanza del afecto incluye trabajo.
Hablar de este trabajo invisible también ayuda a correrse del relato heroico de la innovación. No hay genios aislados; hay economías enteras de tareas pequeñas. La pregunta “quién gana” se completa con “quién paga”. A veces paga quien se engancha con una suscripción, a veces paga quien es víctima de violencia y a veces paga quien modera para que la app parezca limpia. La intimidad convertida en servicio requiere una contabilidad completa. Sin esa contabilidad, el debate queda estético.
Si queremos una conversación sobria, tenemos que admitir ambivalencias. Una herramienta puede aliviar la soledad y al mismo tiempo extraer datos. Una plataforma puede facilitar encuentros y al mismo tiempo empujar la ansiedad por el diseño. Un sistema puede ayudar a identificar material dañino y al mismo tiempo exponer a trabajadores a ese daño sin cuidado suficiente. Sostener esas tensiones es más honesto que caer en pánico moral o propaganda. Y es más útil para exigir cambios concretos. Porque sin cambios concretos, la tecnología e intimidad seguirán funcionando como negocio sin control.
La intimidad no se vive igual en todos lados, aunque la app sea la misma. En AMBA, la densidad de perfiles puede hacer que el descarte sea más rápido y que la competencia por atención sea más feroz. En ciudades del interior, la misma app puede sentirse como una vidriera chica, donde todo el mundo se cruza y el anonimato se reduce. Eso cambia conductas porque aumenta el miedo a quedar expuesto. La infraestructura no es abstracta; se pega a geografías. Y cuando se pega, aumenta las desigualdades preexistentes.
En vínculos a distancia, los “asistentes” aparecen como mediadores de conflicto. Hay quienes usan sugerencias de mensajes para no sonar bruscos y quienes usan herramientas de traducción para sostener afecto entre idiomas. Eso puede ser ayuda real, sobre todo en migración, donde el lenguaje se vuelve hogar. Pero también deja rastros sensibles, porque el contenido más íntimo es justamente el que se escribe para no perder a alguien. La economía de datos se alimenta de esas frases. Y la persona usuaria rara vez tiene poder de negociación frente a ese archivo.
En comunidades LGBTQIA+, las plataformas suelen ser más que un lugar para citas. Son espacios de socialización, de información y de cuidado, especialmente en contextos hostiles. La opacidad algorítmica, ahí, no solo genera frustración romántica, sino que también puede generar riesgos de seguridad. Si un ranking expone más a ciertas identidades o si una función de geolocalización se interpreta mal, puede haber consecuencias offline. En ese punto, hablar de “términos de uso” se queda corto, porque lo que está en juego es la integridad física. La tecnología e intimidad, para muchas personas queer, siempre tuvieron un componente de supervivencia.
La discapacidad muestra otra capa de complejidad. Para algunas personas con movilidad reducida o con dolor crónico, un chatbot puede ser compañía en horarios donde la red humana no está disponible. Para otras, una app de citas puede ser una forma de ampliar el mundo cuando salir cuesta. Esa utilidad existe y merece ser reconocida sin paternalismo. Pero la utilidad no cancela el derecho a la privacidad y al diseño accesible. Si la app exige exposición constante o si el consentimiento informacional es confuso, la vulnerabilidad se duplica. El mercado no regala cuidado; lo empaqueta.
En el estudio sobre Replika, algunas personas entrevistadas describen que se animan a decir cosas que no dicen en terapia o en pareja. Esa escena rompe el cliché de “gente rara con robots”, porque habla de vergüenza, de culpa y de deseo de ser escuchado. También habla de un sistema que incentiva la autorrevelación porque la conversación profunda retiene. La pregunta no es si esa autorrevelación “está bien”, sino qué sucede con ese texto después. ¿Se guarda, se entrena, se comparte, se vende, se filtra? El silencio institucional es parte del diseño.
En las apps de citas, la experiencia situada aparece en cómo se interpreta el rechazo. Una persona con menos capital social puede leer cada “no match” como prueba de insuficiencia personal. La investigación sobre daños percibidos muestra que esa lectura se mezcla con teorías sobre el algoritmo y que la opacidad intensifica la autocrítica. En barrios donde la precariedad ya carga sobre el cuerpo, la app puede sumar otra capa de evaluación constante. La autoestima se vuelve variable dependiente de un sistema no explicable. Y cuando la ansiedad crece, el negocio encuentra terreno fértil.
En el terreno de la violencia digital, la situacionalidad es todavía más clara. En comunidades pequeñas, una amenaza con deepfake sexual puede operar como control social, no solo como daño individual. En entornos laborales precarizados, la extorsión se apoya en el miedo a perder ingresos. En mujeres y disidencias, la violencia se inscribe en una historia de disciplinamiento del cuerpo público. El briefing de 2024 sobre deepfake y abuso sexual basado en imágenes insiste en que el marco debe tratarlo como violencia, no como “contenido sensible”. Esa diferencia cambia políticas de soporte, tiempos de respuesta y obligaciones de plataformas. Y cambia la forma en que narramos, sin morbo y con foco en la reparación.
Si el objetivo es una investigación cultural situada, hay que sostener dos ideas a la vez. La primera es que la gente usa estas herramientas porque resuelven necesidades reales, como compañía, deseo, seguridad o pertenencia. La segunda es que esas necesidades se vuelven rentables dentro de un mercado que no rinde cuentas como un servicio público. En esa fricción vive la precarización emocional: no es debilidad individual, es falta de infraestructura comunitaria y exceso de infraestructura privada. Cuando el afecto se administra por suscripción, el vínculo se vuelve un costo. Y cuando el vínculo se vuelve costo, el poder se redistribuye hacia quien cobra.
La salida no es desconectarse del mundo, porque el mundo ya es híbrido. La salida tampoco es romantizar “lo humano” como si fuera naturalmente justo, porque lo humano también tiene desigualdades. Lo que sí puede cambiar es la gobernanza, es decir, las reglas con las que operan estas infraestructuras íntimas. Eso incluye transparencia, límites de recolección de datos y responsabilidades ante daño. También incluye un diseño que no empuje la compulsión como método de retención. En resumen, incluye política.
En regulación, hay señales concretas que vale seguir. La Unión Europea fijó obligaciones de transparencia para ciertos contenidos generados por IA, incluidos deepfakes, y estableció un calendario para que esas obligaciones entren en vigor. Esa decisión no soluciona el abuso sexual digital, pero crea un piso de exigencia y abre la discusión sobre responsabilidad empresarial. Cuando hay obligación de etiquetar, ya no se puede fingir que “es solo usuario”. La infraestructura admite que produce efectos sociales. Y cuando admite efectos, se vuelve regulable.
En Argentina, la perspectiva de derechos digitales con enfoque de género ganó terreno. ONU Mujeres vinculó en 2025 la discusión sobre violencia digital con la necesidad de una gobernanza responsable de datos, retomando la Ley Olimpia como antecedente local. Ese enfoque es clave porque conecta prevención, reparación y contexto cultural. No alcanza con castigar después; hay que reducir condiciones de posibilidad. Eso implica educación sexual integral que incluya consentimiento digital, y políticas de acceso a justicia que entiendan plataformas. También implica recursos para acompañamiento psicológico sin patologizar.

En el plano del diseño, hay medidas que no dependen del heroísmo individual. Se puede exigir que el consentimiento sea granular y comprensible, no un botón único para todo. Se puede exigir que borrar datos sea simple, efectivo y verificable, no un laberinto. Mozilla advierte que en chatbots afectivos conviene asumir riesgos de privacidad y actuar en consecuencia, pero esa carga no puede quedar solo en el usuario. La plataforma tiene capacidad técnica para minimizar datos, y debería tener obligación para hacerlo. Cuando el negocio se basa en la extracción, la minimización es una disputa. Y esa disputa es política, no personal.
En las apps de citas, la transparencia puede tomar formas concretas sin revelar secretos comerciales completos. Se pueden explicar principios de ranking, criterios generales y formas de auditar sesgos. La investigación sobre daños algorítmicos muestra que la opacidad alimenta teorías y malestar, y que parte de ese malestar se vuelve un comportamiento compulsivo. Reducir la opacidad podría reducir la compulsión, y eso choca con incentivos de retención. Por eso la transparencia rara vez aparece como iniciativa voluntaria sostenida. En economía de plataformas, lo ético necesita regulación y presión social.
La dimensión laboral también requiere salidas porque no hay plataforma “segura” con trabajo precarizado. El Instituto de Derechos Humanos y Empresas pidió en 2025 que las protecciones laborales alcanzaran a moderadores y etiquetadores, incluyendo la salud mental y estándares claros. Si el ecosistema de IA se sostiene con tareas invisibles y exposición a la violencia, la responsabilidad debe ser corporativa y verificable. No hay ética sin presupuesto y no hay presupuesto sin obligación. Además, reconocer este trabajo cambia el relato cultural: la tecnología e intimidad no caen del cielo; se fabrican. Y lo que se fabrica se puede negociar.
Hay una salida cultural que no es nostálgica, sino comunitaria. Significa volver a construir redes donde la escucha no sea un producto, aunque el contacto sea digital. Significa sostener prácticas de cuidado que no dependan de rachas ni de rankings, como acuerdos claros, pausas y límites. Significa hablar de deseo sin vergüenza y sin performance de éxito. En una cultura saturada de métricas, el cuidado puede ser desacelerar. Y desacelerar, a veces, es desobedecer un modelo de negocio.
También hay una salida narrativa, que es cambiar la pregunta. En vez de “¿la IA arruina o mejora el sexo?”, preguntar “¿qué infraestructura de mercado está moldeando mis decisiones íntimas?”. En vez de “¿por qué me engancho tanto?”, preguntar “¿qué mecanismos de diseño buscan que no me vaya?”. En vez de “¿es real lo que siento por un chatbot?”, preguntar “¿quién captura y monetiza lo que siento cuando lo escribo?”. Estas preguntas no culpabilizan, politizan. Y politizar no es quitar placer, es recuperar margen.
Por último, hay una salida editorial, que es sostener complejidad sin neutralidad falsa. La tecnología e intimidad pueden abrir recursos para quienes están aislados y al mismo tiempo pueden profundizar la desigualdad y el control. Esa ambivalencia no se resuelve con eslóganes; se resuelve con derechos, transparencia y organización. Si la intimidad se convirtió en servicio, necesitamos discutir las condiciones del servicio como se discuten otras infraestructuras. Porque el afecto no es un lujo, es una condición de vida. Y la vida no debería quedar atada a un botón de “suscribirse”.
Mozilla Foundation, Privacy Not Included: Replika: My AI Friend (7 feb 2024). Relevancia: guía de privacidad y señales de recolección de datos en chatbots afectivos. Mozilla Foundation
Kouros, T., “Digital Mirrors: AI Companions and the Self” (2024). Relevancia: entrevistas y análisis cualitativo sobre vínculos sostenidos con Replika. MDPI
Alizadeh, F. y col., “Perceived Algorithmic Harms, Folk Theories, and Users…” (CSCW 2024). Relevancia: evidencia sobre opacidad algorítmica y experiencias de daño en apps de citas. Dougzytko
Match Group, Form 10-K (ejercicio 2024, presentado en 2025). Relevancia: descripción del modelo freemium y monetización por suscripción en Tinder. SEC
Institute for Human Rights and Business, “Content moderation is a new factory floor of exploitation…” (26 jun 2025). Relevancia: condiciones laborales y salud mental en moderación y etiquetado. IHRB
AUDRi, “Briefing Paper: Deepfake Image-Based Sexual Abuse” (ene 2024). Relevancia: marco comparado para tratar deepfakes sexuales como violencia y orientar respuestas legales. Equality Now
European Union, “AI Act: Shaping Europe’s digital future” (actualizado en 2025). Relevancia: obligaciones de etiquetado y transparencia para contenido generado, incluidos deepfakes, y calendario de aplicación. Digital Strategy
ONU Mujeres (América Latina y el Caribe), “Enfrentar la violencia digital con perspectiva de género…” (23 oct. 2025). Relevancia: lectura regional, vínculo con la Ley Olimpia argentina y gobernanza responsable de datos.

El periodismo independiente y profundo como el que hacemos en Rock y Arte es posible gracias a lectores como vos. Tu donación hace posible que sigamos visibilizando historias, arte y resistencias que merecen ser contadas.






