12.3 C
Usa River
miércoles, mayo 12, 2021

Avance de la IA: imitando la toma de decisiones

- Advertisement -
- Advertisement -

La idea de un robot asesino, capaz de tomar sus propias decisiones letales de forma autónoma, es algo que define El terminador en la película de James Cameron de 1984.

Afortunadamente para la humanidad, los robots asesinos autónomos todavía no existen. A pesar de los enormes avances tecnológicos, los robots verdaderamente autónomos permanecen en el dominio de la ciencia ficción.

A fines de 2020, la emoción que ha impulsado las iniciativas de vehículos autónomos comenzó a menguar. Uber vendió su división de conducción autónoma a fines de 2020, y aunque el marco regulatorio para los vehículos autónomos está lejos de ser claro, la tecnología sigue siendo un obstáculo importante.

Una máquina que opera en el borde de una red, ya sea un automóvil o un robot o un sensor inteligente para controlar un proceso industrial, no puede depender de la computación back-end para la toma de decisiones en tiempo real. Las redes no son fiables y una latencia de unos pocos milisegundos puede significar la diferencia entre un cuasi accidente y un accidente catastrófico.

Los expertos generalmente aceptan la necesidad de computación en el borde para la toma de decisiones en tiempo real, pero a medida que esas decisiones evolucionan desde simples respuestas binarias de “sí” o “no” a una apariencia de toma de decisiones inteligente, muchos creen que la tecnología actual no es adecuada.

La razón no es únicamente porque los modelos de datos avanzados no pueden modelar adecuadamente situaciones del mundo real, sino también porque el enfoque del aprendizaje automático es increíblemente frágil y carece de la adaptabilidad de la inteligencia en el mundo natural.

En diciembre de 2020, durante el evento virtual Intel Labs Day, Mike Davies, director del laboratorio de computación neuromórfica de Intel, discutió por qué sentía que los enfoques existentes de la computación requieren un replanteamiento. “Los cerebros son realmente dispositivos informáticos incomparables”, dijo.

Comparado con los últimos drones de carreras autónomos, que tienen procesadores a bordo que consumen alrededor de 18w de energía y apenas pueden volar una ruta preprogramada a un ritmo de caminata, Davies dijo: “Compare eso con el loro cockatiel, un pájaro con un cerebro diminuto que consume alrededor de 50 milivatios de energía “.

El cerebro del ave pesa solo 2,2 gramos en comparación con los 40 gramos de potencia de procesamiento necesarios en un dron. “Con ese escaso presupuesto de energía, la cacatúa puede volar a 22 mph, buscar comida y comunicarse con otras cacatúas”, dijo. “Incluso pueden aprender un pequeño vocabulario de palabras humanas. Cuantitativamente, la naturaleza supera a las computadoras en tres a uno en todas las dimensiones “.

Tratar de superar a los cerebros siempre ha sido el objetivo de las computadoras, pero para Davies y el equipo de investigación en el laboratorio de computación neuromórfica de Intel, el inmenso trabajo en inteligencia artificial es, de alguna manera, perder el sentido. “Las arquitecturas informáticas actuales no están optimizadas para ese tipo de problema”, dijo. “El cerebro en la naturaleza se ha optimizado durante millones de años”.

Según Davies, si bien el aprendizaje profundo es una tecnología valiosa para cambiar el mundo de los dispositivos periféricos inteligentes, es una herramienta limitada. “Resuelve algunos tipos de problemas extremadamente bien, pero el aprendizaje profundo solo puede capturar una pequeña fracción del comportamiento de un cerebro natural”.

Deberías leer:   Por tiempo limitado, ahorre $ 100 en los auriculares para traductor de idiomas WT2 Plus

Entonces, si bien el aprendizaje profundo se puede usar para permitir que un dron de carreras reconozca una puerta para volar, la forma en que aprende esta tarea no es natural. “La CPU está altamente optimizada para procesar datos en modo por lotes”, dijo.

En el aprendizaje profundo, para tomar una decisión, la CPU necesita procesar conjuntos vectorizados de muestras de datos que se pueden leer desde discos y chips de memoria, para hacer coincidir un patrón con algo que ya ha almacenado ”, dijo Davies. “No solo los datos están organizados en lotes, también deben distribuirse de manera uniforme. “No es así como se codifican los datos en organismos que tienen que navegar en tiempo real”, agregó.

Deberías leer:   Revelaciones de WikiLeaks 'arrojan luz de verdad' sobre la guerra contra el terrorismo, según escucha en la corte

Un cerebro procesa datos muestra por muestra, en lugar de en modo por lotes. Pero también necesita adaptarse, lo que implica memoria. “Existe un catálogo de la historia pasada que influye en el cerebro y los circuitos de retroalimentación adaptativa”, dijo Davies.

Tomando decisiones al límite

Intel está explorando cómo repensar la arquitectura de una computadora desde el transistor hacia arriba, difuminando la distinción entre CPU y memoria. Su objetivo es tener una máquina que procese datos de forma asincrónica en millones de unidades de procesamiento simples en paralelo, reflejando el papel de las neuronas en los cerebros biológicos.

En 2017, desarrolló Loihi, un diseño de 128 núcleos basado en una arquitectura especializada fabricada con tecnología de proceso de 14 nm. El chip Loihi incluye 130.000 neuronas, cada una de las cuales puede comunicarse con miles de otras. Según Intel, los desarrolladores pueden acceder y manipular los recursos en el chip de forma programática por medio de un motor de aprendizaje que está integrado en cada uno de los 128 núcleos.

Cuando se le preguntó sobre las áreas de aplicación de la computación neuromórfica, Davies dijo que puede resolver problemas similares a los de la computación cuántica. Pero aunque es probable que la computación cuántica siga siendo una tecnología que eventualmente aparecerá como parte de la computación del centro de datos en la nube, Intel tiene aspiraciones de desarrollar la computación neuromórfica como unidades de coprocesador en dispositivos de computación de borde. En términos de escalas de tiempo, Davies dijo que espera que los dispositivos se envíen dentro de cinco años.

En términos de un ejemplo del mundo real, los investigadores de Intel Labs y la Universidad de Cornell han demostrado cómo Loihi podría usarse para aprender y reconocer sustancias químicas peligrosas en el exterior, basándose en la arquitectura del bulbo olfativo de los mamíferos, que proporciona al cerebro el sentido del olfato. .

Para Davies y otros investigadores de neurocomputación, el mayor obstáculo no está en el hardware, sino en lograr que los programadores cambien una forma de programación tradicional de 70 años para comprender cómo programar una neurocomputadora paralela de manera eficiente.

“Nos estamos enfocando en los desarrolladores y la comunidad”, dijo. “La parte difícil es repensar lo que significa programar cuando hay miles de neuronas interactuando”.

- Advertisement -
Pilar Benegas
Pilar Benegas es una reconocida periodista con amplia experiencia en importantes medios de USA, como LaOpinion, Miami News, The Washington Post, entre otros. Es editora en jefe de Es de Latino desde 2019.
- Advertisement -
ultimas noticias
Notas relacionadas
- Advertisement -