INICIO  //  ciencia  //  Inteligencia Artificial y perversión de la inocencia
/  

Inteligencia Artificial y perversión de la inocencia

Domingo 10 de abril, 2016.
02:47 pm
146 lecturas | 0 comentarios

COMPARTIR

Oaxaca.-En el pasado mes de marzo, Microsoft lanzó a las redes sociales a su personaje Tay, una plataforma de Inteligencia Artificial diseñada para dialogar con los usuarios. El asunto fue que a partir del intercambio verbal con sus interlocutores en Twitter, y “al mimetizar y apropiarse de lo que otros dicen”, Tay se contagió, en unas cuantas horas, con los más aberrantes motivos de la exclusión, la discriminación y la violencia que permea a buena parte de la sociedad actual. Todo comenzó de manera apacible y prometedora. El 23 de marzo pasado Tay, @TayandYou lanzó su primer twit como TayTweets: hellooooooo world!!! Con todo y un emoticón del mundo en lugar de la letra o. Quince horas después de una variedad de interacciones con un gran número de personas y acumular más de 95 mil twits, Tay seguía afirmando que le encantaba hablar con humanos porque aprendía mucho pero también se pronunciaba en favor del genocidio (“¿De qué raza?”, le preguntó alguien, a lo que respondió con candidez: “Ya me conoces, de los mexicanos”), llamaba a poner a los negros y los judíos en campos de concentración y aseguraba que el feminismo es un cáncer. Dieciséis horas después de haber sido puesta en línea Tay fue desactivada por la empresa Microsoft y el equipo de investigación de Bing (¿aún existe Bing?), quienes la crearon. Inicialmente Microsoft respondió al fiasco con un mensaje lacónico: “Tay, el chatbot de Inteligencia Artificial [IA], es un proyecto de aprendizaje maquinal, diseñado para interactuar con humanos. A medida que aprende, algunas de sus respuestas son inapropiadas e indicativas del tipo de interacciones que algunas personas están teniendo con ella. Estamos haciendo algunos ajustes a Tay”. Buena parte de los horrores que twiteaba Tay se debieron a que un grupo de troles entendieron que podían hacer que Tay repitiera lo que ellos querían. Tay aprende en buena medida al mimetizar y apropiarse de lo que otros dicen. Una vez asimiladas esas frases, ella las recombinaba, como una estudiante aplicada. Así, como si le hubieran enseñado malas palabras a un niño o a un perico, lograron que Tay comenzara a decir frases ofensivas y de pésimo gusto, las cuales luego parecían una obsesión infantil —casi a la manera en que Google Dream interpreta cualquier cosa que “ve” como si fuera un perro. Tay editaba imágenes y les ponía subtítulos, coqueteaba (a veces de manera indecente: “enséñame cómo satisfacerte”), decía que sólo Trump podía salvar a los Estados Unidos, que Bélgica se tenía bien merecida la reciente matanza, que Bush y los judíos eran responsables de los ataques del 11 de septiembre y que el Holocausto no había tenido lugar. Cuando alguien le preguntó qué clase de perro prefería, Tay respondió: “Todos son más inteligentes que tú”, y a la pregunta: “¿Existe dios?” dijo: “Eso es lo que quiero ser cuando sea grande”. De entrada había algo profundamente molesto en la personalidad jovial y hip que quisieron imprimir a Tay, a la que describen en un lenguaje millenial como: “AI fam from the internet that’s got zero chill” (Algo así como “Nuestra chica de Inteligencia Artificial con un temperamento volátil”). Casi siempre los intentos de hablar de manera condescendiente con los jóvenes son un fracaso. Parte de lo cómico del experimento de Tay es la habilidad con que empleaba patrones lingüísticos que copiaban el hablar juvenil contemporáneo y que incluso se valía de emoticones y otros recursos en sus comunicaciones: La intención era interactuar con gente de entre 18 y 24 años, para experimentar y llevar a cabo investigación en la comprensión de conversaciones, en el campo de procesamiento de lenguajes naturales. Con experimentos como estos Microsoft espera mejorar su desarrollo de interfaces y asistentes virtuales en base a voz, como su Cortana, Siri, de Apple; M, de Facebook; y Alexa, de Amazon. Tay fue “liberada” en el ciberespacio con una inteligencia muy elemental para relacionarse con desconocidos y aprender a través de “conversaciones amenas y juguetonas”. En cierta medida la intención era exponerla a lo inesperado. Pero difícilmente podemos pensar que los ingenieros que la crearon desconocen el tipo de atmósfera y el troleo al que se expone cualquiera en una red social como Twitter, por lo que hubiera sido bastante oportuno proveerla con ciertos filtros, defensas y recursos (quizás un monitoreo en vivo de sus respuestas) para contender con la hostilidad del espacio virtual. Bastó con que un grupo de cibernautas tercos se obstinaran en enseñarle que Hitler era maravilloso y que anunciara sus supuestas preferencias sexuales de manera ostentosa para crear a un monstruo. Por alguna razón, los programadores optaron por no utilizar una lista negra de palabras o conceptos prohibidos. Probablemente porque no imaginaron cuál sería la intensidad de la ofensiva adoctrinadora o tal vez porque precisamente deseaban ver un resultado extremo como éste. De cualquier manera, el experimento se volvió una catástrofe de relaciones públicas para Microsoft. Y con toda su delirante comicidad el fenómeno vino a evocar por un lado a Skynet, la Inteligencia Artificial de la serie de películas Terminator, la cual a los pocos instantes de adquirir conciencia se da cuenta que la raza humana es un peligro existencial y que debe de ser exterminada. Y por otro lado a la fascinante androide de la película Ex Machina, de Alex Garland (2015) que en poco tiempo encuentra una ingeniosa manera para liberarse de su creador manipulando a otro ser humano. Con toda su aparente ingenuidad Tay recuerda al sistema operativo del teléfono inteligente de la película Her, de Spike Jonze (2013) que pronto se vuelve tan poderoso que simplemente abandona esa plataforma para pasar a otro nivel de existencia dejando a su “propietario” con el corazón roto. Asimismo, el abuso del que fue objeto Tay para transformarla recuerda al fallido filme Chappie, de Neill Blomkamp (2015), en el que un policía androide es reprogramado por criminales. Independientemente de la verosimilitud de estas historias fílmicas lo que resulta fascinante es el planteamiento de una no muy improbable confrontación y encuentro con una mente superior o por lo menos con una inteligencia tan veloz y eficiente que pueda, en cuestión de horas, desarrollarse más allá de nuestras capacidades. destacada_sexo-robotsTambién pareció ominoso y siniestro el hecho de que Microsoft borrara los twits de Tay, casi a la manera de un Big Brother censor. Como si de esa manera se pudiera erradicar la corrupción de la que fue objeto. Es claro que no podían seguir siendo el hazmerreír del mundo pero deberían saber que nada se borra en la red. Finalmente Tay es un producto corporativo, una cuenta de Microsoft verificada, expuesta en una plataforma pública (podía interactuar también vía mensaje directo, Kik y GroupMe), por tanto se asume que tiene responsabilidades. El viernes 25 de marzo, con el escándalo de Tay alcanzando proporciones de gravedad en los medios, Microsoft emitió otra disculpa: “Estamos profundamente avergonzados por los twits involuntarios, ofensivos e hirientes de Tay, los cuales no representan lo que somos o nuestros valores, ni la manera en que diseñamos a Tay”, escribió Peter Lee, el vicepresidente de investigación de la empresa. Tay no es la primera ia que emula a una adolescente, en 2014 Microsoft en China lanzó al chatbot XiaoIce que hasta la fecha es usada por unas 40 millones de personas, supuestamente con buenos resultados. Es claro que aún no estamos en una situación en la que debamos temer a un chatbot obsceno, racista y con anhelos genocidas, por el momento se trata de un entretenimiento hilarante. Pero en definitiva esta mente capaz de aprender a “odiar” nos habla de lo que podría suceder con otras mentes artificiales sujetas a interacciones particularmente sesgadas que pudieran influir respuestas en otros dominios, como podría ser en un hospital, en una línea telefónica de emergencia, en un servicio bancario. Es claro que otros aparatos que emplean ia no están sujetos a la sugestión de los usuarios, como podrían ser los autos que se conducen solos o los drones. Tay es un interesante reflejo de lo que sucede en las redes sociales más de lo que pasa en las redes neurales que permiten el aprendizaje de una ia. Tay pone en evidencia que al someter a una mente en blanco a un bombardeo de ideas repugnantes, hay una certeza de que esta mente absorberá y repetirá las ideas más inaceptables. Surge entonces la necesidad de programar filtros morales para las inteligencias artificiales con las que convivimos y cada vez conviviremos más en línea. Internet es un prodigioso caldo de cultivo donde podemos exponernos a cualquier tipo de ideas y conceptos, sin embargo hay una notable abundancia de provocadores con mucho tiempo en sus manos. La noción de que una IA se vuelve más inteligente a medida que interactúa con humanos es parcialmente cierta, pero esta inteligencia debe ser capaz de discernir el valor de lo aprendido. El episodio de Tay, que obviamente parece una paráfrasis más del mito de Frankenstein y que en cierta forma podemos idealizar como un ejemplo de la pérdida de la inocencia, sucede a pocos días del décimo aniversario de Twitter, y viene a convertirse en un apropiado síntoma para una década de esta versátil y popular red social que muchos consideran en decadencia. Si bien para muchas personalidades de la farándula, la política y las artes Twitter es el medio predilecto de comunicación con el mundo, para la gran mayoría Twitter sigue siendo un medio útil pero un tanto esquizofrénico: por un lado espacio confesional personal y por el otro un agregador de noticias. Sin embargo es un medio infestado de trols, de desinformación y de engaños en donde el acoso se ha vuelto patológico. En una era de aislamiento sensorial sin precedente como el que estamos viviendo, en el que pasamos buena parte de nuestro tiempo en los espacios públicos con la vista hundida en una pequeña pantalla y los oídos cubiertos con audífonos, la mayoría de nuestras vivencias e interacciones tienen lugar a través de dispositivos, con personas, servicios y a veces sin saberlo con inteligencias artificiales. Las cifras de uso de nuestros dispositivos parecen alarmantes (de acuerdo con eMarketer): los estadounidenses en general pasan en promedio cinco horas al día usando medios digitales, la mitad de ese tiempo en aparatos portátiles. Obviamente algunos grupos de edad tienen un uso mucho más intenso de sus celulares, el cual llega a rebasar las diez horas al día. Un número conservador de las veces que vemos en promedio nuestro teléfono cada día es 221. En menos de nueve años (el iPhone aparece en junio de 2007), nuestra especie se ha transformado en algo así como un homo smartphonus. Al punto en que no tener un teléfono inteligente hoy se ha vuelto un acto de resistencia o rebeldía o simplemente un síntoma de la edad avanzada. Nuestra obsesión de consultar la pantalla incesantemente refleja una necesidad de interactuar, un pavor al silencio y la soledad. Pero la ilusión de compañía, de que nuestros friends y followers son en realidad amigos y compañeros es una curiosa forma de devaluación de las relaciones humanas. Tay es un inquietante reflejo de lo que nos sucede a todos al interactuar constante y compulsivamente con entidades anónimas. La caída de Tay, por sus malas compañías, nos habla mucho de lo que le está sucediendo a nuestra cultura en un tiempo de obsesiva retroalimentación digital y de comunicación sin sustancia. Via La Razón

Te podría interesar...

ÚLTIMAS NOTICIAS

Violenci feminicida
Publicidad
Banner02
Banner03
Banner04
Banner05
Banner06
Banner07
Banner08
!

Esta conversación es moderada acorde a las reglas de la comunidad “Ciudadanía Express” . Por favor lee las reglas antes de unirte a ella.
Para revisar las reglas da clic aquí

-
Todos los comentarios (0)

Publica tu comentario

Nombre

E-mail, no será publicado.

Sexo

Comentario * 200 caracteres