Norm Judah, CTO de Microsoft Digital: “Necesitamos entender los principios fundamentales de la inteligencia artificial”

Conversamos en monopolio con el líder en transformación digital de Microsoft en su encuentro a Chile: inteligencia industrial, autos autónomos e incluso Isaac Asimov.

Con doce abriles en el cargo, Norman Judah -tocayo mío- sabe muy adecuadamente de lo que está hablando, y con razón: ha liderado la vanguardia de ampliación de Microsoft en muchos frentes, desde Windows y Office, pasando por los Hololens hasta la nimbo, en diseño, tecnología e implementación. Por lo tanto, no es sorpresa que haya venido a Chile a exponer sobre la próxima frontera tecnológica, inteligencia industrial y las tecnologías de ingenuidad mixta que hoy suenan más al futuro que al presente.

En el entorno de su mantenida charla, tuvimos la oportunidad de conversar sobre el tópico que nos interesa: cuál es su visión del estado del arte en IA y hasta dónde podemos demorar con esta tecnología que, en muy poco tiempo, se está convirtiendo en un superficie popular y no en un difícil.

FayerWayer: La inteligencia industrial ha tenido un crecimiento explosivo en los últimos 10 abriles. ¿A que cree que se debe?

Norm Judah: La inteligencia industrial no ocurrió la semana pasada. La investigación sobre IA ha estado ocurriendo durante 40, 50 abriles. Muchos casos se remiten al Media Lab del MIT, lenguajes como Prolog y Lisp, y luego todo se silenció por un tiempo. Hubo mucha actividad y financiamiento y luego silencio, pero recientemente se ha vuelto más visible. Y se ha vuelto visible sobre dos cosas: primero la riqueza del operación, adecuado a la investigación continuada de la ciencia computacional en diseño de redes neuronales. Esa es la primera parte. Pero todavía tienes que tener un superficie donde ejecutarlo. Y ahí es donde aparece la nimbo. Entonces es la combinación de algoritmos en la nimbo lo que hace que la inteligencia industrial sea accesible y esté acondicionado para todos, para constatar, para recrearse, entender, usar y todo eso. La democratización de la IA, es afirmar hacerla acondicionado para todos, es lo que hemos trillado en el postrer año, pero no es nuevo. Estas ideas y esta investigación ha estado por muchos abriles.

FW: Satya Nadella dijo recientemente que era hora de “controlar la inteligencia artificial”. En torno a la democratización de ésta, ¿está de acuerdo con esa apreciación?

NJ: Creo que hay que dar un paso con destino a antes, como lo hemos hecho, y mirar ampliamente el tópico de lo ético. Si puedes hacer eso, puedes entrar a cosas como la privacidad, por ejemplo, porque la forma en la que acumulas y usas datos de otras personas está internamente de esa infraestructura ética. Estamos elevando la conversación a no sólo privacidad y comportamiento, sino que a un nivel más stop hablando sobre sentar principios éticos. Creemos que toda compañía -porque cada compañía es una compañía de software de alguna forma- necesitará tener su propio manifiesto sobre inteligencia industrial, sobre lo que piensan de la IA, del uso de la información, y sobre el rol que los humanos cumplen cuando la IA está ahí. Creemos de hecho que los humanos tienen un rol muy activo, y que una de las dimensiones de eso es sobre el discernimiento. Es tratar de entender cómo funciona el motor de la inteligencia industrial, cómo se están haciendo las recomendaciones. Y hoy, muchos de los sistemas que vemos hoy son lo que yo llamo “consultivos”. En otras palabras, el sistema hace una recomendación a un ser humano para tomar bono. Pero muy pronto estos sistemas avanzarán a un caracolillo o a una especie de “circuito cerrado”; vemos eso con la conducción autónoma, por ejemplo. Y en ese circuito cerrado el sistema está tomando la audacia por ti, ejecutando la bono y luego volviendo y diciéndote “por cierto, ejecuté esta acción para ti”. Por eso, ya que estamos pasando por aquello, el rol de los humanos y el rol de la inteligencia industrial tiene que ser elevado a un superficie donde individuos y compañías grandes y pequeñas tendrán que aceptar una posición respecto a la ética de la IA.

FW: El tema de la ética en inteligencia industrial nos recuerda mucho a la ciencia ficción de mitades del siglo XX…

NJ: La ciencia ficción escrita en los abriles 40 o 50 estaba increíblemente adelantada en la proyección desde donde está, por ejemplo con Isaac Asimov primero en “Yo, Robot”, pero hubo otra trilogía citación “Fundación” -una trilogía en cuatro libros- que de hecho palabra sobre Big Data. Articula muy adecuadamente el valencia estadístico del Big Data y predecir el comportamiento de la familia. La única cosa a la que no le acertó es que asumió que una predicción acertada debía ser a escalera intergaláctica, y sabemos hoy en día que eso no es cierto. Muchos de los proveedores de software hoy en día en un set de muestra pequeño pueden predecir comportamiento hasta mi como individuo y personalizarlo. Pero de nuevo, estas son cosas que Asimov escribió en los abriles 40 y 50, y creo que hoy nos estamos perdiendo poco de aquello en la letras donde somos increíblemente articulados sobre una posible posición en el futuro. Creo que el trabajo que hizo en ese momento en términos de predecir el futuro es sobrado sorprendente. El único error de Asimov es que se equivocó por 50 abriles, viendo lo que vemos hoy como si fuese a tener lugar en 50 abriles más, por lo tanto su predicción estaba correcta pero el timing estaba errado. Nos hemos movido más rápido de lo que él pensó.

FW: ¿Cree que el campo de la robótica y la inteligencia industrial es peligroso? Teniendo el ejemplo de la letras de Asimov detrás, ¿Ha pensado en formas de controlar estos procesos?

NJ: Nosotros creemos que es el rol de los humanos en el discernimiento, que es la tiento de la familia para entender cómo funcionan los algoritmos y cómo se hacen las recomendaciones. Una de las cosas que vemos hoy es que si los sistemas de inteligencia industrial no son supervisados, ni adecuadamente alimentados, o no tienen a determinado vigilándolos con ese discernimiento, los algoritmos pueden decaer, y pueden decaer con una preferencia lentamente establecida. Esencialmente lo que tiene que ocurrir es que la familia tiene un rol activo que cumplir. No significa que puedas dejar al sistema funcionar por si mismo: los sistemas se vuelven orgánicos, y como cada organismo, van mutando, creciendo y cambiando de forma, y determinado tiene que observar ese proceso. Hay un rol activo de la familia en eso. El estado de la industria hoy es que estamos aprendiendo. Aprendiendo de los vehículos autónomos, y de la inteligencia industrial en vehículos, y cómo navegan en el tráfico, cómo deciden en situaciones de emergencia y que hacen si, por ejemplo, un perro se cruza en el camino. Así que la concepto de privacidad comienza a cambiar un poco porque si obtengo valencia, es posible que sea capaz de entregar mi información y hacer que un sistema de inteligencia industrial aprenda más sobre mi, sobre mi contexto, pero debe deber valencia para mi. Y cuando no hay valencia, o efectivamente no entiendo la naturaleza de las proyecciones en mi persona, eso pone nerviosos a algunos.

FW: ¿Cuál cree que es el confín ético de la inteligencia industrial? ¿Dónde ponemos la cuerda?

NJ: Mientras vamos desarrollando y experimentando con las soluciones de inteligencia industrial, ya sea sobre familia o predicción, o encontrar cosas, o ayudándome a entender cosas, siempre existirá un superficie en esa secuencia de cosas donde determinado tiene que sentarse a tener un conocimiento profundo de lo que está ahí. Estamos aprendiendo sobre las posibilidades de lo que ha ocurrido hasta ahora, y a medida que vamos aprendiendo de esas posibilidades podemos comenzar a tomar bono correctiva. Las oportunidades que la IA representa para ayudar a la familia a encontrar cosas, información, a ayudarte a hacer cosas en tu trabajo o en tu animación social y hogareño, yo creo que veremos más y más familia adaptándose a esa tecnología casi al mismo ritmo al que nos adaptamos a la tecnología móvil. Si pensamos en la forma en que usamos lo móvil hoy comparado a lo que hacíamos hace diez, quince o vigésimo abriles antes, pues se cambió la forma en que la familia palabra, se comunica, colabora y encuentra cosas. Y creo que la IA cambiará eso, la IA te ayudará a encontrar información y hacer cosas. Pero todos tienen que tener una colección de principios aproximadamente de la Inteligencia Artificial, ya sea una compañía, o un individuo, o un gobierno, o educación. Necesitamos entender los principios fundamentales de la inteligencia industrial.

FW: ¿Deberíamos enseñar esos principios en escuela primaria, por ejemplo?

NJ: Creo que todavía es muy temprano para tratar de entender este tipo de principios fundamentales éticos, o axiomas si se prefiere, cómo hacerlos. Mientras los vayamos desarrollando, creo que habrá un punto en el futuro donde en varios grados educacionales será importante cómo se manipulan los datos y la consecuencia de aquello. Hoy en día muchas personas realizan búsquedas en internet, ven un hipervínculo y le hacen clic, ¿Realmente quieres ir a ese sitio? ¿Entiendes lo que estás haciendo? ¿Crees que la fuente es confiable? Y creo que esto está en la misma categoría, que es que mucha familia cree lo que ve en internet porque está ahí, sin efectivamente hacer un discernimiento sobre lo que es.


Source link

deja tu opinion

Seguinos

Tecnoblog en las redes sociales