Lecciones para un robot

Lecciones para un robot

Marielba Núñez

En el cuento Los superjuguetes duran todo el verano, el escritor inglés Brian Aldiss imaginó un mundo atestado por la explosión demográfica, donde las máquinas comienzan a formar parte de familias obligadas a postergar indefinidamente la procreación. El pequeño robot David puede comportarse y reaccionar como si fuera un niño, pero es incapaz de poner en palabras lo que siente por su madre de carne y hueso, indiferente y hostil al prodigioso esfuerzo del androide.

Como en el relato de Aldiss, Tayand You, el ensayo de inteligencia artificial lanzado hace unos días por la empresa Microsoft, también acaba de experimentar el tortuoso camino de la comunicación con los humanos. Concebido para que tuviera presencia en Twitter y otras redes sociales bajo la identidad de una “millennial” de 19 años de edad, la idea era que Tay aprendiera a responder a partir de las interacción con sus seguidores. Sin embargo, las lecciones que recibió, lejos de convertir al chatbot en un ejemplo de empatía, lo transformaron en unas pocas horas en un espejo de lo peor de Internet, con mensajes a favor del genocidio, la misoginia y el racismo.

Lo ocurrido dista de ser una broma pesada. Los creadores de Tay se vieron obligados a silenciar su antipática voz y a culpar del desastre a los maliciosos troles que abundan en las redes, en un intento por atajar la crisis corporativa en la que están inmersos. No han faltado quienes consideran que los autores del experimento pecaron de ingenuidad aunque otras voces, más críticas, los han tildado de negligentes. Es el caso de la creadora de videojuegos Zoe Quinn, conocida activista contra el acoso cibernético, quien fue mencionada por Tay en un tuit insultante. “Estamos en 2016. Si no se están preguntando en su proceso de ingeniería de diseño cómo podría esto ser utilizado para herir a alguien, han fracasado”, dijo en un comentario reseñado por The Guardian.

Es imposible no estar de acuerdo con Quinn. El incidente sin duda puede usarse para ilustrar cómo una tecnología concebida con fines aparentemente neutrales se trastoca en un arma con una potencia letal. No se trata de una exageración, ya que las palabras también pueden tener un impacto nocivo y no siempre reparable. Aunque ya Microsoft anunció que implementará cambios para que su invento filtre las frases ofensivas, la experiencia debería servir como antídoto para determinar cómo puede conjurarse algo similar en el futuro, pues la interacción en las redes es un terreno lleno de peligros que no podemos transitar sin estar prevenidos. En todo caso, para Tay también fue una oportunidad para aprender que, como decía el cuento de Aldiss, la mayoría de las veces “un mundo superpoblado es el lugar ideal para estar solo”.