1479942730_450_1000.png

Los humanos que se rebelan contra los algoritmos

La inteligencia industrial podría exceptuar nuestro mundo. O condenarlo, claro. Seguidores y detractores de esta tecnología están librando una batalla en la que los prodigios que se prometen contrastan con las distopias más o menos exageradas en las que la humanidad acaba o aceptablemente arrasada por las máquinas o aceptablemente aburrida y deprimida porque los robots le han robado todos los trabajos que había.

El potencial de la inteligencia industrial es enorme, y los avances que hemos gastado en los últimos meses y primaveras confirman que estamos frente a la que podría ser la gran revolución de nuestro tiempo. Los algoritmos podrían dominarlo todo y hacer que vivamos en un mundo mejor, pero hay quien opina que hay que ponerle freno a esos algoritmos… y hacerlo ya.

Que los algoritmos decidan no es buena idea (de momento)

Una de las razones es dialéctica: los algoritmos están aún en pañales, y muchas veces se comportan de maneras que no habíamos anticipado y con resultados que como poco son insatisfactorios. El sistema automatizado de de publicación de contenidos de Facebook censuró una de las fotos más célebres de la historia, la titulada ‘The terror of war’, de Nick Ut, y tapó a la pupila desnuda protagonista de la foto considerando que esta era una violación de la tradicional política contra los desnudos de niños.

Napalm

Facebook tuvo que dar marcha a espaldas y republicar la foto llamativo sin censura tras críticas muy fuertes que llegaron incluso de la Primera Ministra de Noruega, Erna Solverg, que llegó a indicar que al modificar esas imágenes Facebook estaba “redactando nuestra historia compartida”. El problema es que ese era solo un pequeño ejemplo que de un error que sí se detectó, pero existen muchos más que no se detectan o que si lo hacen no tienen tanta relevancia pública (pero sí personal) como el de la célebre fotografía ganadora de un Premio Pulitzer.

Kate Crawford, investigadora en el campo del enseñanza automotriz, precisamente advertía de ese peligro en una advertencia en la que calificaba a este descubrimiento como la punta de un iceberg coloso, uno en el que las decisiones automatizadas o semiautomatizadas no se detectan, y su impacto puede ser formidable.

La infracción no es de los algoritmos, sino nuestra

El problema es que estamos dándole un poder de intrepidez a la inteligencia industrial que ésta no debería tener. De repente estos algoritmos deciden quién debe ser contratado, quién se lleva la promoción, o incluso nos avisan de qué gurí acabará siendo un criminal a los 18 primaveras. Y cuando otros algoritmos tratan de revelar quién cometerá actos delictivos, resulta que nos encontramos con algoritmos racistas.

Chicos

La cosa se complica cuando comprobamos que la infracción de esa sinceridad que nos presentan los algoritmos no es de ellos. Es nuestra, poco que dejamos claro hace unos meses en Magnet, cuando hablábamos del célebre caso de los “tres chicos blancos” y “tres chicos negros” que uno podía agenciárselas con el buscador de imágenes de Google. En el primer caso se mostraba un trío de jóvenes sanos y deportistas. En el segundo, se mostraban fotografías de decisión de jóvenes negros en Estados Unidos. Google era racista, determinó el estudio realizado por unos estudiantes de Virginia.

En Google tienen un problema efectivo con temas tan delicados como el racismo o el machismo. Lo hemos visto con los casos de peinados poco profesionales para ir a trabajar (solo salían mujeres de raza negra) y peinados muy profesionales (mujeres de raza blanca), pero incluso con hombres futbolistas (con los resultados que uno esperaría) o mujeres futbolistas (las primeras imágenes eran más de modelos vestidas de futbolistas que de jugadoras reales) y con un estudio que dejaba claro que el mercado gremial era más favorable para hombres que para mujeres. Por no susurrar de la polémica con Google Fotos y los gorilas.

Estamos dándole un poder de intrepidez a la inteligencia industrial que ésta no debería tener

Como afirmaba nuestra compañera Esther Miguel Trula, un cálculo es un eco de los estereotipos de nuestra mente, más que una aparejo que muestre cómo es el mundo efectivo. Google es racista porque internet es racista, afirmaban en Wired al susurrar de otro de los servicios “racistas” de Google, Google Maps. Por cierto, parece que nos estamos cebando con Google, pero Snapchat tuvo una crisis muy reciente al respecto, y poco antaño Microsoft incluso cayó en ese error: ¿Os acordáis de Tay?

El debate sobre si las computadoras pueden ser o no racistas es insensatez, porque los que somos racistas somos los seres humanos, que creamos los algoritmos que hacen funcionar el buscador de Google, el motor de recomendaciones de compras de Amazon o el de canciones de Spotify.

Gorilas

Es evidente que ninguna de las empresas que ofrecen esas empresas tienen intención de ser racistas o machistas, por ejemplo, pero estos algoritmos se alimentan tanto de los datos que les proporcionamos como de los criterios con los que han sido programados. La computadora simplemente hace lo que le hemos dicho que haga. Al menos por el momento, diría Elon Musk.

Esta amenaza presente y efectivo que presentan estos sistemas ha hecho que algunos expertos se hayan unido para tratar de batallar sobre la cuestión. En el simposio AI Now organizado por la Casa Blanca se evaluó el impacto financiero y social de la inteligencia industrial en los próximos 10 primaveras y se llegó a una conclusión incómoda: “no hay métodos aprobados para evaluar los existencias humanos y el impacto longitudinal de la Inteligencia Artificial que se está aplicando a sistemas sociales“.

Google es racista porque internet es racista

Puede que esos algoritmos acaben siendo mucho mejores en la toma de decisiones que los seres humanos, pero eso no quiere asegurar que esas decisiones y procesos no tengan que ser supervisados. Y deberían serlo más que nunca ahora, cuando esta tecnología está demostrando que los aciertos pueden ser tan sorprendentes como los errores.

El filtro burbuja

Otro de los existencias colaterales de ese uso indiscriminado de la inteligencia industrial para la toma de decisiones es el que afecta a nuestros propios gustos y nuestra percepción de la sinceridad: Google News y Facebook perfilan lo que leemos y vemos en internet a diario, y esos algoritmos, como muchos otros, crean el llamado filtro burbuja. Eli Pariser hablaba de ello en TED2011:

El ejemplo más claro podría ser el de servicios como Spotify: el cálculo que utilizamos para escuchar música toma en cuenta nuestras preferencias musicales a partir de las búsquedas que realizamos y las canciones que escuchamos. A partir de ahí es capaz de sugerirnos temas y artistas de ese perfil, pero el problema es, como afirmaba Tim O’Reilly, que “nos alimenta con más de lo que queremos escuchar, en extensión de exponernos a otros puntos de traza“.

El problema es que la IA nos alimenta con más de lo que queremos escuchar, en extensión de exponernos a otros puntos de traza

El problema se hace registro en los medios de comunicación que hacen (hacemos) uso de algoritmos de otros servicios para tratar de detectar los temas más interesantes en cada momento (descubrimos temas siguiendo medios y cuentas relevantes de Facebook o Twitter, entre otros). Ese interés, no obstante, está condicionado por algoritmos sobre los que nosotros no tenemos control alguno: las historias de las que hablamos son las más virales, las que están generando debate e interés entre los usuarios, pero… ¿por qué esas y no otras? La larga trasero actúa, y el acto del descubrimiento se vuelve más confuso.

Choices Part 4 – No debería hacerlo, pero te he sacado un momento para darte un consejo. | – ¿Un consejo? | – Gira por sitios equivocados. Habla a los extraños. Abre puertas sin letreros. Y si ves a un género de masa en el campo, véte a ver qué están haciendo. Haz cosas sin que sepas qué pasará luego. (Traducción vacuo. Fuente: xkcd)

Cedemos una vez más a la comodidad y a lo claro que nos lo ponen servicios como Facebook o Twitter, en los que sí tenemos cierto poder de intrepidez (a quién seguir) pero a partir de las cuales solo podemos contemplar una parte (muy pequeña) de nuestra sinceridad. Y una por otra parte condicionada por criterios propios que vuelven a envolvernos en esa burbuja.

Esta sinceridad demostró serlo una vez más en otro de los grandes fenómenos mediáticos de los últimos tiempos: Netflix. En el vademécum ‘The Netflix Effect’ dos investigadores explicaron cómo los sistemas de recomendación personal tienden a “dirigir al usuario hacia ese contenido, por lo que meten al usuario en el gueto de una categoría prescrita con contenido clasificado demográficamente”. Son los algoritmos piña: nos unen y reafirman más en nuestros gustos y criterios, pero es probable que incluso nos condicionen a la hora de aceptar los gustos y criterios de otros.

Auditar el cálculo es la esencia para encargar en él

¿Qué hacer para protegernos de ello? El secreto está en poder estudiar esos algoritmos. Comprenderlos. Es más: auditarlos. O’Reilly proponía un conjunto de cuatro reglas para conquistar retener si podíamos o no fiarnos de un cálculo:

Autonomos
  1. Sus creadores han aclarado el resultado que buscan, y es posible que observadores externos verifiquen ese resultado.
  2. El éxito es medible.
  3. Los objetivos de los creadores del cálculo están alineados con los objetivos de los consumidores del cálculo.
  4. ¿Permite el cálculo sufrir a sus creadores y usuarios a una mejor toma de decisiones a derrochador plazo?

La aplicación de esas reglas permite explicar el punto en el que nos encontramos, por ejemplo, con los prometedores coches autónomos. Las dos primeras reglas se cumplen, pero la cosa se complica con la tercera y la cuarta regla: no hay una vinculación de la industria con los coches autónomos porque hay demasiados intereses creados más o menos de ese segmento.

Millones de puestos de trabajo estarían en repertorio, así que para muchos “mantener al ser humano en el bucle” es poco crucial para poder seguir subsistiendo. No tenemos coches autónomos no tanto porque los algoritmos no estén preparados (están cerca de estarlo), sino porque su implantación tiene existencias colaterales imposibles de cuantificar. Al menos, de momento.

Para O’Reilly todo se reduce al hecho de que “hay un algoritmo maestro que domina nuestra sociedad”, y éste no es uno en el que se haga un uso estupendo del enseñanza automotriz. No. Es el pilar nuclear de las empresas modernas: que la única obligación de un negocio es para con sus accionistas. Hasta que eso no cambie, veamos más allá y nos fiemos de los “otros” algoritmos, no avanzaremos. Pero para hacerlo, claro, tendremos que estar muy atentos a lo que estos hacen y incluso a lo que dejan de hacer.

En Xataka | Los académicos nos dicen la verdad sobre el estado del hype de la Inteligencia Artificial


Source link

deja tu opinion

Seguinos

Tecnoblog en las redes sociales