¿Qué es la teoría de las redes neuronales?
La llamada teoría de las redes neuronales hacer referencia a que la corteza cerebral esta formada por unas células denominadas neuronas, cada una de estas células está formada por un cuerpo, un axón, y una multitud de dentritas. Las dentritas forman una estructura de filamentos muy fina que rodean el cuerpo de la neurona. El axón es un tubo largo y delgado que se ramifica en su extremo en pequeños bulbos finales que casi tocan las dentritas de las células vecinas. La pequeña separación entre los bulbos finales y las dentritas se le denomina sinapsis. Los impulsos eléctricos viajan por el axón y hace contacto con las dentritas de la neurona vecina mediante las sinápsis. La intensidad de la corriente transmitida depende de la eficiencia de la transmisión sináptica. Una neurona en especial transmitirá un impulso eléctrico por su axón si suficientes señales de las neuronas vecinas transmiten a través de sus dentritas en un tiempo corto, denominado período de suma latente. La señal que se transmite a la neurona podrá ser inhibitoria o excitatoria. La neurona manda el impulso por su axón, si la excitación excede su inhibición por un valor crítico, el umbral de la neurona.
Fundamentos de las Redes Neuronales:
Neuronas Artificiales:
- Las redes neuronales artificiales se componen de unidades llamadas "neuronas" o "nodos". Cada neurona artificial realiza operaciones matemáticas en las entradas que recibe y produce una salida.
Conexiones Ponderadas:
- Las conexiones entre las neuronas están ponderadas por coeficientes llamados pesos. Estos pesos determinan la fuerza y la dirección de la influencia de una neurona sobre otra.
Capas Neuronales:
- Las redes neuronales suelen organizarse en capas. La capa de entrada recibe las señales, las capas ocultas realizan cálculos intermedios, y la capa de salida produce la salida final.
Tipos de Redes Neuronales:
Redes Neuronales Feedforward:
- En estas redes, la información se mueve en una dirección, desde la capa de entrada hasta la capa de salida, sin ciclos ni retroalimentación. Son comúnmente utilizadas en tareas de clasificación y reconocimiento.
Redes Neuronales Recurrentes (RNN):
- Permiten conexiones cicladas entre las neuronas, lo que les permite recordar información pasada. Son eficaces en problemas secuenciales, como el procesamiento del lenguaje natural y la predicción de series temporales.
Redes Neuronales Convolucionales (CNN):
- Diseñadas específicamente para procesar datos en forma de cuadrículas, como imágenes. Utilizan capas convolucionales para aprender patrones locales y capas de agrupación para reducir la dimensionalidad.
No hay comentarios:
Publicar un comentario