Saltar la navegación

Redes neuronales

Tipos comunes de redes neuronales artificiales


Un tipo común de modelo de entrenamiento en la IA es una red neuronal artificial, que se basa a grandes rasgos en el cerebro humano. 

Una red neuronal es un sistema de neuronas artificiales (a veces llamadas perceptrones), que son nodos de procesamiento que se usan para clasificar y analizar datos. Los datos se ingresan en la primera capa de una red neuronal, y cada perceptrón toma una decisión, y luego pasa esa información a varios nodos de la siguiente capa. Los modelos de entrenamiento con más de tres capas se denominan "redes neuronales profundas" o "aprendizaje profundo". Algunas redes neuronales modernas tienen cientos o miles de capas. Las salida de los perceptrones finales permite realizar la tarea impuesta a la red neuronal, como clasificar un objeto o encontrar patrones en los datos. 

Estos son algunos de los tipos más comunes de redes neuronales artificiales que puedes encontrar:

Las redes neuronales prealimentadas (FF) son una de las formas más antiguas de redes neuronales, ya que los datos fluyen en una dirección a través de capas de neuronas artificiales hasta que se obtiene el resultado. En la actualidad, la mayoría de las redes neuronales prealimentadas se consideran "prealimentadas profundas" con varias capas (y más de una capa "oculta"). Las redes neuronales prealimentadas suelen vincularse a un algoritmo de corrección de errores llamado "propagación inversa" que, en términos simples, comienza con el resultado de la red neuronal y hace el proceso en sentido inverso para llegar al principio, detectando errores para mejorar la exactitud de la red neuronal. Muchas redes neuronales simples, pero potentes, son prealimentadas profundas.

Las redes neuronales recurrentes (RNN) difieren de las redes neuronales prealimentadas en que suelen usar datos de series temporales o datos que involucran secuencias. A diferencia de las redes neuronales prealimentadas, que usan ponderaciones en cada nodo de la red, las redes neuronales recurrentes tienen “memoria” de lo que sucedió en la capa anterior como contingente a la salida de la capa actual. Por ejemplo, cuando se realiza procesamiento de lenguaje natural, las RNN pueden “tener en cuenta” otras palabras usadas en una oración. Las RNN a menudo se usan para el reconocimiento de voz, la traducción y la generación de descripciones de imágenes. 

Las RNN de memoria a largo/corto plazo (LSTM) son una forma avanzada de RNN que puede usar memoria para "recordar" lo que sucedió en capas anteriores. La diferencia entre las RNN y las LTSM es que pueden recordar lo que sucedió hace varias capas mediante el uso de "celdas de memoria". La LSTM suele usarse para el reconocimiento de voz y la realización de predicciones. 

Las redes neuronales convolucionales (CNN) incluyen algunas de las redes neuronales más comunes en la inteligencia artificial moderna. Las CNN suelen usarse en el reconocimiento de imágenes y emplean varias capas distintas (una capa convolucional y, luego, una capa de agrupación) que filtran diferentes partes de una imagen antes de volver a unirla (en la capa completamente conectada). Es posible que las capas convolucionales anteriores busquen características simples de una imagen, como colores y bordes, antes de buscar características más complejas en capas adicionales.

En las redes generativas adversarias (GAN), se usan dos redes neuronales que compiten entre sí en un juego que, en última instancia, mejora la exactitud del resultado. Una red (el generador) crea ejemplos que la otra red (el discriminante) juzga como verdaderos o falsos. Las GAN se han usado para crear imágenes realistas y hasta hacer arte.