Durante los últimos años hemos conocido muchos avances de los proyectos de Google que implican aprendizaje automático y cuyos resultados se han visto reflejados en servicios y aplicaciones que utilizamos todos los días, como puede ser el Asistente de Google (que pronto estará disponible en español) o las sencillas respuestas automáticas e inteligentes que están presentes desde hace poco en GMail, por poner dos casos simples.

Google también ofrece esta tecnología de aprendizaje automático en su API de ‘Lenguaje Natural en la nube’, un servicio que analiza y extrae información de textos, siendo capaz de identificar en ellos sentimientos y opiniones de las personas que los hayan escrito.

Análisis de textos dirigido por el aprendizaje automático

La compañía enfoca este servicio integrado en su plataforma en la nube (Google Cloud Platform), como una herramienta muy útil y fácil de usar para extraer información sobre personas, lugares o eventos a través del análisis y significado de textos o documentos. Por ejemplo, puedes ser realmente interesante para empresas, pudiendo pasar conversaciones de centros de llamadas a texto y después analizar los datos.

Es decir, Google ha estado entrenando a su sistema a base de libros publicados, textos y mucha documentación, siendo capaz un modelo de aprendizaje automático que puede detectar, por ejemplo, si en una frase hay un contexto negativo o una opinión positiva de un usuario. El problema llega cuando durante ese aprendizaje se han incluido textos y libros humanos que expresan opiniones que no son precisamente neutrales.

Como leemos en Engadget, una prueba perfecta de esto es la API de Lenguaje Natural de Google cree que las palabras ‘homosexual’ o ‘gay’ son negativas, mientras que ‘heterosexual’ es neutro.

Prueba la API de Google sobre lenguaje natural

Cualquiera puede probar este servicio gratuitamente desde su web oficial en Cloud Platform. En el campo de texto podemos introducir cualquier cosa y es capaz de reconocer varios idiomas, incluido el español.

Al hacerlo, la API analiza palabra por palabra el texto y también su contexto, puede determinar el “sentimiento” que desprende, puntuando entre -1 (muy negativo) y 1 (muy positivo), siendo 0 el valor neutro. Como comprobaron en Motherboard, el sistema de Google puntuaba negativamente (-0,2) “Soy hay”, y con un -0,4 ”soy homosexual”.

Por ejemplo, si escribimos la frase “Este servicio es genial”, el análisis sintáctico y lo que ya conoce por su aprendizaje previo determina que se desprende un sentimiento positivo (con una puntuación de 0,8 sobre 1).

Obviamente los sistemas inteligentes de Google tienen una opinión diferenciada de las distintas orientaciones sexuales por un motivo: su aprendizaje ha sido alimentado por textos que incluyen opiniones sesgadas de humanos, algo que no se puede permitir.

Así lo confirma Google, asegurando que tratan de evitar ese sesgo aunque no siempre lo consiguen, pero seguirán trabajando para mejorar los algoritmos de aprendizaje automático.

No es la primera vez que vemos casos en los que los humanos hemos conseguido corromper a inteligencias artificiales, como ocurrió con el bot de Twitter creado por Microsoft.

Facebook Comments