1479851437_450_1000.jpg

el gran batalla del coche autónomo

«Sólo en América, la conducción cibernética podría rescatar 300.000 vidas cada decenio». Así abría The Atlantic, hace un año, un artículo donde ponía de manifiesto ese adagio popular: las máquinas no se cansan, no cometen errores. Y a esos 300.000 habría que sumar casi 10 millones en todo el planeta.

Lo que esas cifras no nos cuentan es cómo se enfrentaría una Inteligencia Artificial a un conflicto decente.

Legislar sobre algoritmos de formación automotriz es difícil. «No abrimos el cerebro de la masa para analizar sus neuronas y ver si son éticas, lo que hacemos es observar su comportamiento. Y tenemos un conjunto de principios definido a través del cual juzgamos ese comportamiento», apostilla Iyad Rahwan, profesor asociado en el MIT Media Lab, en el vídeo que viene a continuación.

El coche autónomo como chivo propiciatorio

Las máquinas nos recuerdan nuestras imperfecciones. Les regañamos como a un perro malo. Si no responden exactamente como queremos las hacemos chatarra y a otra cosa. Es más factible encontrar culpables que encargarse las propias. ¿Qué va a proponer una máquina, se defenderá frente a un tribunal?

Las máquinas nos recuerdan nuestras imperfecciones

La mayoría de entrevistados por el citado Iyad Rahwan coincidían en que necesitamos cierta transparencia, una reglamento frente a este particular. La propuesta popular es «mientras se muestre el código fuente habrá transparencia». En cambio, un 60% de los encuestados no desean coches autónomos con regulación estatal. ¿Razón? La posibilidad de que el conductor asuma más responsabilidad que la máquina.

Mientras Tesla insiste en que, por gracia, recordemos que su Autopilot no va de conducción automática, sino de ayudar al conductor próximo, colaborar para minimizar posibles errores, los usuarios ponen el grito en el bóveda celeste pidiendo un transporte completamente independiente.

futuro

Ya tendremos ocasión de quejarnos cuando vengan los problemas.

Mercedes ya lo tiene claro. En una entrevista a Christoph von Hugo, Senior Manager Active Safety para Mercedes-Benz, sus coches completamente autónomos —de nivel 4 y 5, aún en estado de desarrollo— elegirían a favor del pasajero sobre el peatón, sea éste el que sea. Es una alternativa ciega, porque nuestro prospección decente siempre se apoya en éste.

Mientras tanto, la empresa estadounidense ha tenido que imponer baneos temporales a usuarios irresponsables que, simplemente, dejan todo el trabajo a un sistema que aún tiene mucho que instruirse. Y accidentes como el de Joshua Brown al volante de un Tesla Model S nos recuerdan que, aunque la tropiezo no sea explícitamente nuestra, sí está en nuestras manos la posibilidad de corregir una negligencia.

A nuestra imagen y referencia

Singularity

¿debemos dejar que una IA cometa errores para instruirse de ellos?

Y de eso va todo, de instruirse. La pregunta es: ¿debemos dejar que una IA cometa errores para instruirse de ellos? Las RNA (Redes Neuronales Artificiales) nos han llevado a una comprensión más profunda del formación de las Inteligencias Artificiales: nadie nace sabiendo todo, sino que aprende de cada falta. Pero nunca dejamos cometer errores a nuestras máquinas.

«Es difícil identificar cuáles son los principios éticos que deberían administrar el comportamiento de un coche autónomo», dice Iyad Rahwan. ¿Por qué es difícil? Podríamos remontarnos a Sócrates para balbucir de deontología (conocimiento de lo conveniente). Y, aún así, no llegaríamos a un consenso pleno. Cada persona posee una perspectiva distinta a la misma problemática.

Para concretar, pensemos en el viejo Dilema del Tranvía: el transporte ha perdido el control y en la vía hay cinco personas atadas. Podemos desviar el tranvía accionando un cambio de vía. Por desgracia, hay otra persona atada a ésta. ¿Debería accionarse? De nuestra inacción morirán cinco personas. En cambio, esa otra asesinato será consecuencia directa de nuestro comportamiento. ¿Un sacrificio último? Consecuencialismo, en todo caso.

Claro, matar es siempre malo. No se prostitución de otorgar a matar un valía de 1 y a no hacerlo un valía de 0. Estamos hablando de las implicaciones morales de “minimizar el riesgo”, poco que se lleva haciendo siglos entre conflictos bélicos —inmolar a unas tropas para rescatar a toda una nación— pero nunca había estado en manos de un robot.

Una decente de silicio

Ethics Results1

Iyad Rahwan presentó un pequeño mamotreto ético, Moral Machine, para tratar estas cuestiones: ¿cómo debería reaccionar un coche autónomo en una situación de daño necesario? Pero los resultados no fueron especialmente cómodos. «El problema viene cuando les preguntamos si comprarían ese coche. Su reacción fue: nunca compraría un coche que me pueda hacer daño a mí bajo ninguna circunstancia».

Parece que existe cierto consenso en que es “mejor” atropellar a una insuficiente jubilada frente a una enfermera de 30 primaveras. Y que sería “menos grave” arrollar a cinco delincuentes ayer que a cinco niños preescolares. Pero el conductor, en todo caso, no arriesgaría su propia vida en pos de “lo que pueda suceder”.

Si somos así de egoístas, ¿cómo vamos a educar a una máquina en la empatía?

Digámoslo claro: si somos así de egoístas, ¿cómo vamos a educar a una máquina en la empatía? No obstante, el problema que señala Iyad Rahwan es otro: «aunque veas el código, no puedes predecir qué hará. Lo que haga dependerá de lo que haya aprendido y de la información que haya utilizado para instruirse. Es poco que sólo se revelará a través del comportamiento».

Pero no nos apresuremos. Como en todo, existen distintos niveles de egoísmo: ¿Debemos enseñar a nuestras máquinas a ser “desconsideradas”, lo suficiente egoístas para evitar “males mayores”?

Un gran poder conlleva una gran responsabilidad

Pensador de Robot

El 90% de los accidentes suceden por errores humanos. Sólo un 10% corresponde a errores técnicos

Aún con todo, las matemáticas nos dicen que debemos enseñar a las máquinas. Cuanto ayer. El 90% de los accidentes suceden por errores humanos. También sabemos que escribir un mensaje de móvil es tres veces más peligroso que conducir ebrio. Y que sólo el 10% restante de estos accidentes suceden a causa de fallas técnicas o problemas climáticos.

En julio de 2015 The Guardian publicaba la siguiente noticia: un androide asesinaba a un montador de vehículos en una planta de Volkswagen. ¿Qué herramientas legales hay en este particular? ¿A quién demandar? ¿Se prostitución de un error humano? ¿Qué porcentaje de tropiezo corresponde a la empresa, el fabricante de la máquina o al androide mismo?

Como señala el propio Rahwan, «al dejar cada vez más decisiones en manos de máquinas, al mismo tiempo debemos desarrollar un resolución social entre la masa y los algoritmos que toman esas decisiones importantes para supervisar su comportamiento».

«Debemos desarrollar un resolución social entre la masa y los algoritmos que toman esas decisiones importantes para supervisar su comportamiento» — Iyad Rahwan

Un selecto congregación de intelectuales, entre los que se encuentran Stephen Hawking, Steve Wozniak, Noam Chomsky o el propio Elon Musk, director de Tesla, sacaron delante un manifiesto donde alertaban de los peligros de que un androide, sea bajo la situación que sea, tenga el poder de designar matar.

El longevo desafío no es tecnológico, sino social

Interior Tesla Model S

Los robots como armas comprenden un debate decente aún más incómodo: ¿a quién culpamos si, bueno, si ellos mismos han tomado la atrevimiento basándose en una larga condena de códigos codificados? Supongamos que los robots han perfeccionado su comportamiento hasta ese ratio de error cercano al cero tajante: si nosotros, como sociedad marcamos una serie de líneas rojas y principios éticos que bloqueen su formación, ¿cómo veremos progresar a estas Inteligencias Artificiales?

No todas las sociedades respondemos igual a los mismos test éticos

Pongamos como ejemplo un adolescente al que, según madura, vamos ampliando su horizonte de bono y otorgándole más soltura.

Vamos más allá: ¿deben todos los robots pensar igual, o debería variar en almohadilla a sus “responsabilidades”? Un congregación de psicólogos publicó un estudio donde demostró que, aunque todos poseemos una serie de principios éticos y una psicología humana básica, cada civilización alega de una guisa específica a un tipo de estímulo. O lo que es lo mismo: no todas las sociedades respondemos igual a los mismos test éticos.

señor

¿Cómo poner un precio “moral” a una vida? ¿Es la máquina una sociópata por designar a quién mataría en un caso de pérdida segura? ¿Podemos fortuna hacerla responsable cuando simplemente se ha acotado a instruirse de nosotros? Sí, está claro: una vida no es un peón, no podemos arriesgarse como el método minimax, no hay sacrificio acoplado. Pero si, tal y como predicen las estimaciones, para 2020 contemos con 10 millones de coches autónomos, quizá deberíamos centrarnos en marcar los márgenes de esas consecuencias ayer de aproximarse buscando culpables.

«es una zona muy difícil para la Ley porque la idea de que una máquina podría ser responsable de poco no es un concepto factible en tajante» — Chris Elliott

No parece factible, en cualquier caso. Una singularidad que no nos va a dejar así como así. Chris Elliott, ingeniero de sistemas y abogado perteneciente al Imperial College of London, insistía hace algunos años en que «es una zona muy difícil para la Ley porque la idea de que una máquina podría ser responsable de poco no es un concepto factible en tajante».

Pero si no respondemos a estas cuestiones «nos negamos a nosotros mismos el beneficio de usar estas cosas», proseguía Elliott. El ICL presentó para este particular un documento de debate donde concluía que, por delante de la ley, va la ética. Algo con lo que coincidía con los postulados de Isaac Asimov en sus primeros relatos de 1950… y con Platón hace casi 2400 primaveras.


Source link

deja tu opinion

Seguinos

Tecnoblog en las redes sociales