En mi artículo anterior, presentamos el componente clave detrás de las redes neuronales convolucionales (CNN), la capa convolucional.
Las capas convolucionales permiten que la red neuronal aprenda los mejores núcleos para descifrar o clasificar nuestra imagen de entrada.
Si no está familiarizado, un núcleo es una pequeña matriz que se desliza sobre la imagen de entrada y, en cada paso, aplicamos la operación de convolución. Dependiendo de la estructura del kernel, tendrá un efecto diferente en la imagen de entrada. Puede difuminar, enfocar o incluso detectar bordes (operador sobel).
En las CNN, el resultado de una operación de convolución se denomina mapa de características.
A continuación se muestra un diagrama de ejemplo de una convolución donde difuminamos la imagen resultante:
Si desea un desglose completo de cómo funciona la convolución, consulte mi publicación anterior aquí:
En capas convolucionales, tenemos varios núcleos que la CNN intenta optimizar para usar propagación hacia atrás. Las neuronas de las capas convolucionales posteriores están conectadas a un puñado de neuronas de la capa anterior. Esto permite que las primeras capas reconozcan características de bajo nivel y aumenten la complejidad a medida que nos propagamos a través de la CNN.
Las capas convolucionales son la parte clave de una CNN, pero la segunda parte clave es capas de agrupaciónque es lo que discutiremos en este artículo.
Descripción general
Las capas de agrupación son simples: reducen la muestra del mapa de características reduciendo su…