Inicio > Congresos Online > Congreso Online 2023 > Black Mirror: Joan is Awful > Subjetividad y autonomía frente al avance de la I.A.

Subjetividad y autonomía frente al avance de la I.A.

por Genovecio Lucía, Nicolás

Universidad de Morón

Resumen:

El presente escrito plantea un análisis del primer capítulo de la sexta temporada de la serie antológica Black Mirror, titulado Joan is awful (Joan es horrible). En primer lugar, se abordarán las libertades cedidas a cambio del uso de productos y servicios tecnológicos, específicamente, con la aceptación de los términos y condiciones o las normas comunitarias. En segundo lugar, se desarrollarán las implicancias éticas de la utilización de la inteligencia artificial. Finalmente, dentro de las tensiones referidas a la ética, se hará hincapié en la posibilidad de adquisición de consciencia por parte de la inteligencia artificial.

Palabras Clave: Autonomía | Subjetividad | Inteligencia | Artificial

Subjectivity and Autonomy in the Face of A.I. Advancement

Abstract:

This article presents an analysis of the first episode of the sixth season of the anthology series Black Mirror, titled "Joan is awful". First, it will address the freedoms relinquished by using technological products and services, specifically, by accepting terms and conditions or community rules. Second, it will delve into the ethical implications of using artificial intelligence. Finally, within the ethical tensions discussed, emphasis will be made on the possibility of AI acquiring consciousness.

Keywords: Autonomy | Subjectivity | Intelligence | Artificial

Términos y condiciones

El nudo del capítulo, el conflicto, nace cuando la protagonista, Joan, decide ver Streamberry (un servicio de streaming que parodia a Netflix de forma explícita) con su pareja tras un día de trabajo. Mientras deciden qué ver, descubren una serie protagonizada por Salma Hayek titulada Joan is awful (Joan es horrible), en la que la estética de la protagonista se asemeja meticulosamente a la de la espectadora. Al comenzar a ver el programa, por iniciativa-presión de su pareja, descubre que es una copia punto a punto de su día. Esto la lleva a tener un ataque de pánico y problemas con todos sus conocidos, también retratados en la serie. Al otro día, este suceso se repite en un nuevo capítulo. Frente a esto, Joan decide tomar medidas legales. Sin embargo, su abogada le informa que no hay nada que pueda hacer, ya que cedió su imagen, nombre y privacidad al aceptar los términos y condiciones necesarios para suscribirse a Streamberry, quienes acceden a la información de su día a día gracias a la cámara y micrófono de su celular.

En la actualidad, son numerosos los servicios que requieren aceptar términos y condiciones antes de poder acceder al uso de los mismos. Son tantos que probablemente el lector promedio de este ensayo haya aceptado una versión de los mismos la última semana o el último mes. Esta suerte de contrato nos recuerda al personaje de los cuentos de hadas recolectados por los hermanos Grimm, Rumpelstiltskin, quien, por medio de diversas artimañas, engaña a sus víctimas para que acepten tratos que, a la larga, los perjudicarán en favor del mañoso duende. Adaptaciones modernas de este cuento (Shrek: Forever After y Once Upon a Time), retratan estos tratos, estas promesas, como un contrato que las víctimas firman tras prometérsele una recompensa soñada. Ese contrato guarda muchas similitudes con los términos y condiciones modernos, ambos son escritos extremadamente largos y técnicos, cuya prosa es intencionalmente tediosa para que se omita su lectura, logrando así que los firmantes pasen por arriba la letra chica de los mismos, el precio a pagar por recibir esa recompensa anhelada. El timing es otro elemento clave, Rumpelstiltskin aparece en momentos de extrema necesidad, valiéndose de la desesperación de los individuos. Análogamente, los botones para aceptar las cookies (permiso para que la página/app pueda tener acceso a nuestra navegación previa) aparecen en los momentos menos oportunos instando a los usuarios a aceptar la configuración predeterminada, en lugar de configurar sus preferencias de forma manual, para volver rápidamente a lo que estaban haciendo. El léxico utilizado en estos contratos implica un conocimiento legal ajeno al usuario promedio y se basa en la temporalidad contemporánea, marcada por los tiempos breves y la cortísima duración de la ventana de atención (cercana a la duración de un reel de Instagram o un TikTok), lo cual implica que la presunción de subliminalidad del contenido del contrato se cumpla. Si bien la figura de lo subliminal es importante en este análisis, creo más pertinente utilizar el término supraliminal acuñado por Günther Anders (1975), el cual refiere a fenómenos tan grandes que no podemos verlos ni imaginarlos. En los términos y condiciones se cede algo tan valioso como la privacidad, pero el usuario no concibe eso al presentarle treinta y dos páginas escritas en una letra minúscula. La firma de los mismos es un automatismo, una obviedad, una acción que se efectúa de manera acrítica que es acusada solamente de burocracia innecesaria, pero no se percibe (generalmente) peligro alguno.

Los términos y condiciones se rigen por el Principio de Libertad Contractual, entendiéndose por el mismo a la potestad que tienen las personas para generar obligaciones entre individuos y/o corporaciones mediante la celebración de un contrato, siendo su único límite lo establecido por la ley. Esto implica aceptar lineamientos conductuales y ceder ciertos derechos. Un ejemplo de esto se ve en las redes sociales, cuando se bloquea una cuenta por incumplir normativas de convivencia o se ceden los derechos de propiedad de las fotos y/o videos subidos a la plataforma. La utilización de esos datos tiene diversas funciones, desde mejorar el algoritmo del servicio ofrecido para ajustarse más a nuestras preferencias, hasta la venta de datos “privados” como las conversaciones efectuadas dentro de la red a marcas que los utilizarán como estudio de mercado. En países autoritarios, y algunos considerados libres, estos datos fueron utilizados por el Estado para controlar a sus ciudadanos (Ugarte, 2022).

Para complejizar la cuestión, los términos y condiciones de los servicios digitales no son estáticos, sino que cambian todo el tiempo, accediendo a nuestra renovada confirmación mediante un cartel que aparece y no permite utilizar el servicio (ver películas, por ejemplo) hasta aceptar los nuevos términos, los cuales no se encuentran en el recuadro, sino que deben descargarse o acceder a otra página para visualizarlos, o simplemente se toma al pago de la mensualidad como una aceptación de los nuevos lineamientos. Esto impide que incluso una lectura detallada de los mismos al momento de contratar el servicio nos blinde de sus efectos perniciosos.

Según el CELE [1], las normas que impactan la actividad de los usuarios se encuentran dispersas en múltiples instrumentos, sitios y formatos. Ciertos ajustes específicos, tales como los relativos a la pandemia o a las elecciones estadounidenses de 2020, no se incluyen en el cuerpo de las normas comunitarias, sino que se anuncian de manera informal y dispersa en los blogs de las empresas o en la cuenta personal de su director ejecutivo, como es el caso de Facebook. Asimismo, los términos utilizados en estas comunicaciones suelen ser vagos y su aplicación queda al criterio de los empleados del servicio. Por ejemplo, en su política sobre discurso de odio, Facebook prohíbe las generalizaciones, pero permite las afirmaciones relacionadas con comportamientos puntuales, siempre que sean “calificadas”. Sin embargo, la política no explica qué es una afirmación calificada. Esto implica que lo que hoy está permitido por las normas comunitarias, mañana puede no estarlo y, en consecuencia, estar actualizado de forma constante implicaría una serie de operaciones no acordes con los tiempos de los usuarios.

¿Libre albedrío?

El dilema de las redes sociales de Jeff Orlowski es una docuficción que explora los peligros de las redes sociales: el influjo en los mecanismos fisiológicos de la adicción, su uso en política, su impacto en salud mental y su rol en la difusión de teorías de conspiración. Uno de los temas principales es el manejo de los datos, evidenciando como estas plataformas son capaces de crear un perfil de cada uno de sus usuarios, el cual no es público, a partir de las publicaciones a las que reaccionan, las páginas que siguen y los segundos que pasan mirando una imagen o un video. Este perfil contiene posiciones políticas, preferencias sexuales, identidad de género, creencias religiosas, etcétera. Una huella digital (en la doble acepción de la palabra), un genoma cognitivo más preciso que la imagen de nosotros mismos que tienen nuestros familiares y amigos. Este perfil se nutre de información pública e información que consideramos privada, incluso de los supuestos navegadores incógnitos, los cuales no dejan un historial visible para otros usuarios de la cuenta, pero sí dejan registro de su actividad para los proveedores de la misma.

En la actualidad, es común escuchar hablar de libertad de elección/acción, de mayor poder para el individuo, de un pensamiento personal menos influenciado por las instituciones y por los grandes sistemas de creencia/pensamiento. Denett (2004) propone que el libre albedrío se basa en la capacidad de las personas para tomar decisiones racionales y conscientes, evaluando las opciones disponibles y eligiendo de manera autónoma. Sostiene que el libre albedrío y la determinación son compatibles entre sí, y plantea que la libertad puede ser entendida en términos de la capacidad de actuar de acuerdo con nuestras propias creencias, deseos y valores internos, incluso en un mundo determinado. Mientras que nuestras acciones pueden estar influidas por factores deterministas, aún podemos ser considerados responsables moralmente por nuestras elecciones y acciones. Esta posición compatibilista, sin embargo, se basa en la premisa del conocimiento, de que los individuos son conscientes de los alcances, riesgos y posibilidades de sus opciones.

El problema recae en que, en el caso de los términos y condiciones, existe una asimetría de información entre las empresas y los usuarios. Las empresas tienen un conocimiento detallado sobre los datos que recopilan y cómo los utilizan, mientras que los usuarios no tienen acceso completo o comprensión de esa información. Accedemos a una cesión de derechos y privilegios con consecuencias tangibles e impacto individual y colectivo sin saber que lo estamos haciendo. La noción de libertad de elección al elegir nuestra plataforma de streaming favorita palidece frente al hecho de que creemos optar simplemente por un proveedor de películas, cuando también “aceptamos” brindar información cuyo uso puede tener claras implicancias geopolíticas. A modo de ejemplo, la información recolectada permite a las empresas segmentar audiencias y dirigir anuncios políticos de manera más precisa. Una preocupación relacionada con la venta de información en las elecciones es la posibilidad de que las empresas utilicen técnicas de microsegmentación y publicidad dirigida para influir en el comportamiento de los votantes. Esto plantea interrogantes sobre la transparencia, la manipulación y la equidad en los procesos electorales.

Morozov (2013) critica la mentalidad tecno-solucionista que busca aplicar soluciones tecnológicas a problemas complejos sin considerar las implicaciones éticas, políticas y sociales, lo que puede conducir a enfoques simplistas que no abordan las causas subyacentes de los problemas y que pueden tener consecuencias no deseadas. Respecto a los términos y condiciones, su aceptación implica una restricción del libre albedrío porque, si bien técnicamente tenemos la opción de rechazarlos, en la práctica se nos presenta como una elección binaria: aceptar o renunciar al uso del servicio. Es una elección forzada, ya que la no aceptación implica rehusarse a participar en diversas esferas de la vida moderna. Si Zoom es el medio de comunicación para dar/recibir clases o tener reuniones del trabajo; si tener Netflix es necesario para ver las películas analizadas en la escuela/universidad; si contestar historias de Instagram es la nueva manera de conocer potenciales parejas; si Mercado Pago es el medio de pago más utilizado y Amazon la tienda que reúne los mejores bienes al mejor precio, no aceptar los términos y condiciones implica no aceptar la forma de vida actual y segmentarse de ámbitos estilados como necesarios para la supervivencia.

Frente a esta situación, Schwartz (2005) sostiene que, aunque se cree comúnmente que tener más opciones nos brinda mayor libertad y satisfacción, en realidad, el exceso de opciones puede generar estrés, ansiedad y una sensación de insatisfacción incapacitante. El autor describe el fenómeno "parálisis por análisis", según el cual la abundancia de opciones dificulta la toma de decisiones y nos lleva a sentirnos insatisfechos incluso después de haber elegido. Esto implica la adopción de un sistema de toma de decisiones impulsivo e irreflexivo. Es menos displacentero dejar que otros tomen las decisiones por nosotros, que nos recomienden los servicios a utilizar y que decidan los términos y condiciones, posibilitándonos acceder a los mismos con un solo click.

Recursiones [2]

La serie Joan is awful, en la que se replican los acontecimientos diarios de la protagonista, utiliza una computadora cuántica [3] para producir rápidamente (inmediatamente) la dramatización de los sucesos que a ella le suceden. Joan es retratada por Salma Hayek, pero ella no actuó ninguna escena, sino que firmó un contrato (otro más) en los que cedía los derechos de uso de su imagen. Para añadir aún más niveles y metatextualidad, a la versión de Joan interpretada por Salma Hayek le ocurre exactamente lo mismo, su vida también es reproducida en una serie, en la cual Cate Blanchett la caracteriza.
Al hablar con su abogada sobre la posibilidad de iniciar acciones legales contra Salma Hayek, ella le responde que las escenas son generadas por CGI (Imágenes Generadas por Computadora), por lo que la actriz no protagonizó ninguna de ellas y Streamberry posee la facultad de generar imágenes de ella haciendo cualquier cosa. Esto abre una puerta, una posibilidad de usar a su favor al sistema que la perjudicó.
Consciente de las creencias religiosas de Salma Hayek, Joan idea un plan. Tras ingerir una cantidad insalubre de hamburguesas, las cuales acompañó con una botella de laxante, se vistió de porrista y manejó hasta una iglesia, donde se estaba oficiando una boda. Dentro del edificio, exclamó “¡Feliz navidad para todos!” y dejó que los laxantes hicieran su esperado efecto, generando pavor entre los presentes. En la siguiente escena, vemos a Salma Hayek encolerizada hablando con su abogado sobre lo sucedido en el show, en la cual se mostraron imágenes de ella defecando. Eureka, el plan funcionó.

Tras recibir las mismas explicaciones que Joan recibió de parte de su abogada, Salma decide visitarla para arreglar la situación. En la conversación, Salma le comenta a Joan que quiso hablar con Streamberry para llegar a una solución y le negaron la posibilidad de un dialogo. Confabuladas frente a un enemigo en común, deciden tomar una medida drástica, infiltrarse en las oficinas del servicio de streaming y destruir la computadora que genera la serie.

En las próximas escenas, la historia se bifurca, por un lado, vemos a Salma y Joan buscando la computadora para destruirla y, por el otro, a Mona Javadi, CEO de Streamberry, dando una entrevista sobre su nuevo show estrella, Joan is awful. La entrevista es un recurso para que la audiencia obtenga más información sobre el sistema utilizado para generar este nuevo formato de entretenimiento. En una escena, Fátima, la entrevistadora, le pregunta a Mona por la elección de Joan para la serie, a lo que la CEO responde que eligieron a alguien común y corriente, una don nadie, que les permitiera probar el sistema. Salma y Joan están escuchando, permitiéndonos vislumbrar en el rostro de la segunda cómo se ve interpelada por estas palabras. Este es un primer cuestionamiento a su identidad. No es nadie, una estadística, incapaz de diferenciarse de los demás usuarios promedio de la plataforma.

A lo largo de la entrevista, Mona comenta que el objetivo de Streamberry es estrenar contenido exclusivo, series personalizadas, sobre todos sus usuarios. Al comentar esto, se muestra una pantalla con múltiples miniaturas de programas titulados con el nombre de un usuario seguido de … is Awful (… es horrible). Fátima pregunta por qué la connotación de todas las series es negativa. La respuesta es simple, se testearon alternativas más positivas, cambiando el Awful por Awesome (increíble), pero a los sujetos de prueba no les gustaban. En cambio, al enfocarse en sus momentos de debilidad, enfatizando el egoísmo o la cobardía, esto producía un estado de horror hipnotizante, impidiendo que pudieran dejar de ver sus peores miedos materializados en la pantalla.

Atrapadas en la cinta de Möbius [4]

Finalmente, Salma y Joan encuentran el cuarto de la cuamputadora, la computadora cuántica. En el cuarto, hay un empleado de Streamberry viendo múltiples pantallas con escenas de Joan is awful, en una de las cuales, Joan se ve a sí misma manejando su auto, lo cual es imposible porque en el show la protagonista es Salma, no ella. Al preguntarle al empleado por esta situación, se entera de la terrible verdad. Ella no es la Joan original, Joan cero, sino que es una versión de Joan interpretada por una imagen digital de Annie Murphy (la actriz que la interpreta para Black Mirror). Joan pregunta quién es Annie Murphy, inexistente en este metaverso, a lo que el empleado responde mostrándole imágenes de la actriz (idéntica a ella) en galas de premios. En una palabra, Joan es una persona que vive en el mundo real, quien ve a la actriz Annie Murphy interpretándola en el primer nivel ficticio (donde empieza el capítulo de la serie), mientras que Salma Hayek la interpreta en el segundo nivel ficticio y Cate Blanchett en el tercero.

El plan sigue en pie. Salma y Joan se disponen a romper la computadora. Sin embargo, con el hacha en la mano para culminar el acto, Joan se da cuenta de que su acción implicará la muerte de los personajes del nivel ficticio 2, en el cual Joan tiene la cara de Salma Hayek, quienes consideran ser reales. Inmediatamente, Mona entra en la habitación haciendo una acusación con la misma premisa. Si destruye la computadora, todos los universos creados por la misma dejarían de existir, matando billones de “almas simuladas”. En consecuencia, el universo en el que se encuentran, y sus habitantes, también serían un daño colateral. Joan se da cuenta de algo. Si ella está ahí, en ese momento, significa que antes Joan cero, Joan real, estuvo en la misma situación y los eventos se están repitiendo, por lo que no tiene poder de decisión. Pareciera que ella decida no hacerlo, pero se ve forzada por la Joan original, quien, en la realidad, rompió la cuamputadora, obligando a todas sus versiones a hacer lo mismo. En la escena siguiente, vemos a Joan (cero) y Annie Murphy contentas, destruyeron la máquina que generaba el show, la primera dejará de ver los sucesos de su vida en una serie y la segunda no verá a su imagen digital dramatizando dichos sucesos.

La realidad material nuevamente en jaque

Para el psicoanálisis, la realidad material no alcanza para dar cuenta de la totalidad de los sucesos y procesos que nos afectan como sujetos. El desarrollo de estas nociones supera los objetivos de este escrito, pero en pocas palabras, podríamos afirmar que el énfasis de su estudio está puesto en la realidad psíquica, en la cual, el inconsciente y el lenguaje son protagonistas. En consecuencia, esta disciplina se aleja de las demás, particularmente de la ciencia, en su entendimiento de lo real.

La inteligencia artificial nos ha traído nuevos interrogantes sobre qué es real y sobre cómo podemos discernirlo de aquello que no lo es. Esto genera, al menos, dos problemáticas, las implicancias éticas del uso de I.A. y el carácter ontológico de las creaciones de la I.A., especialmente, aquellas que involucran narrativas y personajes dinámicos, cuya función no está limitada a un producto estático, como, por ejemplo, un corto animado con principio y final.

En cuanto a las implicancias éticas del uso de I.A., una de ellas se relaciona con la primera parte de este escrito al tratarse de la vasta cantidad de datos que requieren las inteligencias artificiales para su entrenamiento y funcionamiento. Esto plantea preocupaciones sobre la privacidad de los individuos y la necesidad de garantizar la protección de datos sensibles. El principal conflicto se da en torno al consentimiento informado, surgiendo dudas sobre la garantía de que los individuos sean informados adecuadamente sobre cómo se recopilan, utilizan y comparten sus datos personales. El hecho de que existan vídeos y audios, en el contexto de la divulgación de entretenimiento en las redes sociales, producidos con inteligencia artificial en los cuales los protagonistas son famosos que desconocen la existencia de los mismos, e, incluso, famosos fallecidos, convierte a las dudas en certezas. No puede asumirse el consentimiento de una persona que falleció antes de que la inteligencia artificial sea un hecho consumado. Los peligros son abundantes al considerar que la posibilidad de distinguir entre un video auténtico y otro producido por IA disminuye día a día. El uso de esta nueva tecnología debería garantizar el anonimato de los individuos de los que obtienen sus datos o, al menos, la pseudonimización, la cual consta de reemplazar o enmascarar ciertos identificadores o atributos con valores ficticios.

Otro conflicto ético refiere al sesgo algorítmico y la discriminación consecuente del mismo. La IA se basa en información, en datos, pero, por sí misma no es aún capaz de dirimir la validez, contexto e imparcialidad de los mismos. Es por esto, que el material recolectado incluye datos históricos que reflejan desigualdades existentes y prejuicios. El sesgo se instala cuando los algoritmos sistemáticamente favorecen o perjudican a ciertos grupos de personas debido a factores como la etnia, el género, la edad, la orientación sexual, etcétera. Esto puede perpetuar y amplificar las desigualdades y la discriminación presentes en la sociedad, las cuales son interpretadas como un hecho, como información, al mismo nivel que procesa que la fórmula química del agua es H2O. Por ejemplo, el uso de algoritmos de IA en sistemas de selección de candidatos para empleo podría incluir datos de contrataciones previas en las que ningún empleado de una etnia o género determinado fue contratado, llevando a que el programa considere que esa es la norma y excluya individuos con esas características.

En cuanto a la responsabilidad, nos encontramos frente a un área gris. A medida que la IA adquiere mayor autonomía (se han programado softwares capaces de programar) y capacidad para tomar decisiones por sí misma, surge la pregunta sobre quién es responsable en caso de errores, daños o decisiones éticas cuestionables. Si el científico A programa un sistema capaz de realizar X cantidad de tareas con Y nivel de complejidad y ese programa por su mera ejecución y capacidad de aprendizaje logra realizar X5 cantidad de tareas con Y6 nivel de complejidad ¿Las consecuencias de los resultados del programa son responsabilidad del investigador? [5] En estos casos, es importante considerar la transparencia de los mecanismos utilizados. Es decir, la capacidad de comprender y explicar cómo los algoritmos de IA toman decisiones y llegan a sus resultados. Es importante que los procesos sean comprensibles para los seres humanos, especialmente para aquellos afectados por dichas decisiones. Se debe poder aplicar ingeniería inversa para determinar cómo se llegó al resultado cuestionable. Si los algoritmos son poco claros no se podrá establecer que una decisión que incluya un sesgo discriminatorio, por ejemplo, fue un error del programa o una acción deliberada del programador.

Otro riesgo, mencionado brevemente en la primera parte de este trabajo, recae en las posibilidades de influencia y manipulación. La IA puede ser utilizada para influir y manipular la información y la toma de decisiones, los alcances de este fenómeno son particularmente notables en áreas como la propaganda, las noticias falsas y la manipulación de la opinión pública. Los algoritmos de IA pueden analizar patrones y preferencias de los usuarios en las redes sociales y utilizar esa información para personalizar y dirigir mensajes que influyan en las opiniones y comportamientos de las personas. Los generadores de texto basados en IA son capaces de generar contenido que se asemeja a noticias reales, lo que dificulta la detección de información falsa, esto plantea preocupaciones en cuanto a la confianza pública y la capacidad de discernimiento de la información verídica. Asimismo, la IA puede influir en la opinión pública al manipular algoritmos y mostrar contenido sesgado que respalde ciertas perspectivas o intereses a través de sistemas de recomendación que generan "burbujas de filtro", donde los usuarios solo se exponen a información que confirma sus propias creencias y opiniones (sesgo de confirmación).

Ser o no ser: esa es la cuestión

El consenso científico no es definitivo sobre la posibilidad de que una IA adquiera consciencia y, así lo fuera, el consenso actual responde a un paradigma que en el futuro podría no imperar. De ser posible, ¿cuál sería su estatuto de realidad? ¿Qué tipo de crédito merecería?

Una posición podría argumentar que la presunción de consciencia por parte de la IA puede no ser de carácter ontológico, sino procedimental. Es decir, no implicaría una consciencia real, sino un método de organización de la información y presentación de la misma en torno a una supuesta identidad. Joan solo sería el resultado de un entrelazamiento de cómputos y algoritmos, un producto cerrado totalmente determinado, incapaz de generar pensamientos o emociones propios o de tomar rumbos de acción no guionados. La mismísima conclusión de que es un producto digital, más unos y ceros que carne y hueso, sería un input incluido en su diseño. Esto implicaría que esta farsa, esa fachada de identidad, sea un avance científico-tecnológico al servicio, en este caso, del entretenimiento y, en otras aplicaciones, de la investigación.

La creación de una síntesis del entrelazamiento de cantidades abismales de información sobre el comportamiento humano bajo la forma de un programa que afirma tener identidad nos permitiría estudiar una imagen, un arquetipo, de cómo puede apreciarse la humanidad a través de sus registros (escritos, gráficos y audiovisuales). Siguiendo a Kletnicki (2000), es plausible asumir que este avance científico-tecnológico podría constituirse en una transformación de lo simbólico al permitirnos apreciar cómo pueden leerse nuestros registros históricos, toda la información relativa a nuestra historia como especie disponible en internet y otras bases de datos, desde nuestra propia óptica, entendiendo que el método de interpretación de la IA con pretensiones de consciencia se desprende del análisis de métodos de interpretación humanos.

Caso contrario, si las pretensiones de adquisición de consciencia no fueran pretensiones, si Joan realmente fuese consciente, estaríamos frente a la transformación del núcleo real, trasgrediendo la propia definición de la especie humana. Una creación humana habría adquirido consciencia, desafiando la hegemonía de su presencia en nuestra especie [6]. De esta manera, el avance científico desconocería las determinaciones estructurales que constituyen al ser humano, disociando la subjetividad del desarrollo del conocimiento y, en consecuencia, generando un empobrecimiento de lo subjetivo. Los desarrollos científicos son siempre más rápidos que sus posibilidades de ser simbolizados, de ser integrados por el sujeto. Los miembros de esta comunidad son conscientes de este fenómeno y no son pocos quienes se han manifestado en contra de los avances acelerados y carentes de controles claros de la IA.

Referencias:

Anders, G. (1975). Tesis para la era atómica. Estudios Latinoamericanos, (44), 171-184.

Bostrom, N., & Yudkowsky, E. (2018). The ethics of artificial intelligence. In Artificial intelligence safety and security (pp. 57-69). Chapman and Hall/CRC.

Dennett, D. C. (2004). Freedom evolves. Penguin UK.

Morozov, E. (2013). To save everything, click here: The folly of technological solutionism. Public Affairs.

Gutiérrez, C., & Montesano, H. (2008). Farsa y ficción. Usurpación y paternidad en la constitución subjetiva. Aesthethika, Revista Internacional de estudio e investigación interdisciplinaria sobre subjetividad política y arte, 5-10.

Kletnicki, A (2000) Un deseo que no sea anónimo. Tecnologías reproductivas: transformación de lo simbólico y afectación del núcleo real. En: La encrucijada de la filiación. Buenos Aires: Lumen.

Schwartz, B. (2004). The Paradox Of Choice: Why More Is Less. Ecco Press.

Ugarte, R. A. (2022) Qué pasa cuando aceptás los términos y condiciones en internet. Chequeado. Disponible en: https://chequeado.com/el-explicador/si-estas-de-acuerdo-clickea-aqui/



NOTAS

[1Centro de Estudios en Libertad de Expresión y Acceso a la Información de la Universidad de Palermo. https://observatoriolegislativocele.com/construyendo-letra-chica/

[2En programación, una recursión refiere a la capacidad de un procedimiento para llamarse a sí mismo dentro de su propia definición. En otras palabras, una función recursiva es aquella que se puede invocar a sí misma para resolver un problema o realizar un cálculo.

[3Una computadora cuántica utiliza principios de la física cuántica para procesar y almacenar información. A diferencia de las computadoras clásicas, que utilizan bits para representar información en forma de 0 y 1, las computadoras cuánticas utilizan cúbits (bits cuánticos) que pueden existir en múltiples estados simultáneos gracias a un fenómeno llamado superposición cuántica. Tienen el potencial de abordar problemas complejos que son difíciles, o llanamente imposibles, de resolver con las computadoras clásicas.

[4La cinta de Möbius es una figura geométrica tridimensional que tiene la propiedad de ser una superficie de una sola cara y un solo borde. En consecuencia, no tiene un lado definido como superior o inferior, ni una cara exterior o interior, sino que consta de una superficie continua, no orientable.

[5Los superíndices utilizados para denotar cantidad de tareas y nivel de complejidad son ilustrativos y, por ende, arbitrarios.




FORUM


  • 1
  • 2


COMMENTS

Message from Manuel Rial  » 17 de agosto de 2023 » manu.r1990@gmail.com 

El texto se centra en el hecho de que la protagonista ha cedido su derecho a rehusarse a ser mercancía (personaje de una serie) y por lo tanto, imposibilitada de recurrir al derecho (los términos y condiciones), no puede más que destruir los medios de producción (la computadora). Estrategia que podríamos poner en la serie del sabotaje como resistencia.
Al ver el capítulo "Joan is awful" recuerdo que dos cuestiones me parecieron dignas de mención:
1) No se hace referencia a la imposibilidad de replicar la totalidad del tiempo y de las acciones de Joan. Bastaría que ella esté mirando la serie un minuto para que se produzca un hiato ya que en ese breve lapso la figura en abismo se replicaría al infinito. Se vería verse cada vez más tiempo y no habría como romper el hechizo sin producir una fractura.
2) Por lo tanto, es dable suponer que se requeriría cierto recorte (a lo que no se hace mención ni se lo muestra de ninguna manera) lo cual implica algún tipo de selección y valoración. De lo que se deduce otro tipo de modo de resistencia: lo que se llama depresión. Es decir una retirada, lo que en el artículo se escribe: "no aceptar los términos y condiciones implica no aceptar la forma de vida actual".
En uno de sus escritos Marx señaló que entre el capital y el obrero la lucha siempre la gana el capital "porque tiene más tiempo". Sabemos que su propuesta no era ni destruir los medios de producción, ni abandonar la esfera de la producción, sino apropiarse de aquellos medios.
¿Me pregunto cuanto tiempo podría soportar la maquinaria productiva una huelga de deseos? ¿Entre Joan y la postura de un Bartleby, hay un margen de acción?



Película:Black Mirror: Joan es horrible

Título Original:Black Mirror: Joan is Awful

Director: Ally Pankiw

Año: 2023

País: Reino Unido

Otros comentarios del Autor: