Conexionismo: Redes Neuronales desde la lente de la Ciencia Cognitiva

May 10 2022
En la Filosofía de la mente, el conexionismo tiene como objetivo explicar los procesos mentales con la ayuda de redes neuronales artificiales. Conexionismo Según la teoría del conexionismo, la mente humana es una red de nodos.

En la Filosofía de la mente, el conexionismo tiene como objetivo explicar los procesos mentales con la ayuda de redes neuronales artificiales.

conexionismo

Según la teoría del conexionismo, la mente humana es una red de nodos. Esta red según la teoría, está compuesta por varias pequeñas unidades o nodos. La red puede constar de una capa de entrada, una capa oculta y una capa de salida. Las 3 capas están dispuestas una tras otra de forma secuencial, pero los nodos dentro de las capas están dispuestos en paralelo.

En el ejemplo de red anterior, hay un total de nueve unidades. Tres unidades están en la capa de entrada, teniendo conexiones con los cuatro nodos en la capa oculta, mientras que la capa de salida consta de 2 nodos.

En la red del conexionista, todas las capas están conectadas a la capa anterior, en el sentido de que toman información de la capa anterior y, mediante una función de activación, deciden qué información o qué cantidad de la información pasada se debe reenviar.

Ejemplo de una red neuronal

Podemos tomar un escenario de la vida real y discutir cómo esta red neuronal, por así decirlo, aborda un problema cotidiano. Consideremos un caso de identificación entre una imagen de un perro y una imagen de un gato. Ahora, hay muchas posibilidades sobre qué tipo de imágenes pueden ser. Puede haber imágenes pequeñas, grandes, en color, en blanco y negro, imágenes en 3D, etc. Para simplificar nuestra discusión, consideraremos que las imágenes tienen unas dimensiones de 128x128 y que están en escala de grises, es decir. cada píxel podría tener un valor posible entre 0 y 255, donde 0 significa nada o color negro, mientras que 255 representa un blanco total. Todos los demás valores son tonos de gris.

¿Cómo podemos enseñar a una red neuronal a identificar dada una imagen si es de un gato o un perro?

En primer lugar, comencemos con una vaga analogía de cómo los humanos pueden asumir esta tarea. Cuando vemos a alguien por primera vez, le preguntamos su nombre, y se crea una correlación interna entre el nombre de la persona y su apariencia. Y si nuestra frecuencia de encontrarnos con ellos es alta, esa asociación se vuelve más y más fuerte y con el tiempo no sentimos problemas para identificar a esa persona. Por lo tanto, para tener una equivalencia computacional, podemos decir que necesitaremos una plétora de imágenes de perros y gatos para la red neuronal y también para la etiqueta asociativa. En cierto sentido, podemos decirle a la red, “oye, aquí hay una imagen y sabes lo que es una imagen de un gato”, y poco a poco esperamos que la red aprenda el mapeo.

Ahora que hemos establecido la premisa, analicemos lo que podría significar "aprender" el mapeo.

Cada una de las unidades de la capa oculta tiene asociados valores denominados pesos. Estos pesos son una medida de la cantidad de información que quieren tomar de una unidad en particular en comparación con las otras unidades. Un valor de 1 significaría que la unidad de la capa oculta quiere que la información se le pase desde cierta unidad de la primera capa tal cual. 0 implicaría que el nodo de la capa oculta simplemente no quiere aceptar ninguna información de un determinado nodo.

Red de clasificación/Fuente: https://github.com/ReiCHU31/Cat-Dog-Classification-Flask-App

Los pesos también pueden verse desde el punto de vista del fortalecimiento o la inhibición. Estos valores de peso pueden ser números reales; esto es algo que los nodos de la capa oculta deben identificar para poder realizar la tarea final. Por lo general, se espera que después de pasar por una gran cantidad de imágenes de entrenamiento, la red pueda ajustar las mismas: esto es exactamente lo que significa el aprendizaje en el contexto de las redes neuronales.

¿Qué se pasa? ¡Durante la fase de entrenamiento, las imágenes se pasan! Y para una perspectiva computacional, sería una matriz 2D de valores de píxeles para 128*128 píxeles, cada uno con un rango de 0 a 255. Esta información se proporciona a la capa de entrada, lo que implica que necesitaríamos 128*128 nodos de entrada para contienen la información de una imagen. Además, la etiqueta se pasa durante la fase de entrenamiento, por ejemplo, en el caso de los gatos podemos pasar el valor 1 y en el caso de los perros, podemos pasar el valor 0. La idea clave es que una vez que la red neuronal calcula su toma en la imagen, luego puede comparar esa toma con la realidad, y luego puede tomar lo mismo como retroalimentación para mejorarse a sí mismo para la toma de decisiones futuras; esto sucedería ajustando los valores de peso.

Uno de los mecanismos populares de actualización de pesos es la retropropagación , aquí la idea es que los pesos se modifican hacia atrás y esto sucede debido a cómo funciona la regla de la cadena. Para calcular el valor del peso en el i-ésimo nodo de la n-ésima capa, habría que retroceder desde el n-ésimo-1 nodo hasta el primer nodo, ya que en la formulación el peso del i-ésimo nodo de la n-ésima capa depende de todos esos pesos en las capas anteriores a través de los cuales se puede cambiar su valor.

Propagación hacia atrás/Fuente: https://medium.com/hackernoon/classifying-images-using-tensorflow-js-keras-58431c4df04

Con el backpropagation, la esperanza es que los pesos se cambien de tal manera que mejore la capacidad de clasificación o regresión de la red, en nuestro caso, el problema planteado es de clasificación. Además, para comparar si la red está mejorando, se puede calcular el valor de pérdida de entropía cruzada (en el caso del enunciado del problema de clasificación).

Además de la red feedforward tradicional, una visión que expliqué, hoy en día existen diversas variantes de Redes Neuronales Artificiales que no tienen una noción uniforme de dirección. Por ejemplo las Redes Neuronales Recurrentes y la Memoria a Largo Corto Plazo.

Mi explicación de las propiedades de las redes conexionistas (por Ravencroft)

Las redes conexionistas pueden aprender: para distinguir entre el gato y el perro, la red debe ser capaz de distinguir entre lo que podrían ser rasgos llamativos del gato o del perro. Por ejemplo, los gatos pueden tener bigotes, los perros pueden tener la lengua fuera la mayor parte del tiempo, su fuente de oxígeno. Luego hay que tener en cuenta la variabilidad entre especies. La capacidad que tienen las redes de aprender del dataset de las imágenes de perros y gatos para poder hacer una clasificación correcta es lo que hace que las redes neuronales se destaquen.

De acuerdo con los resultados de la investigación de las redes neuronales, se dice que tienen grandes propiedades de generalización, es decir, si se verifica un nuevo conjunto de datos para perros y gatos de otras razas, se espera que la red pueda hacer distinciones incluso entonces.

Las redes conexionistas procesan en paralelo: como se discutió anteriormente, los nodos o las unidades en una capa particular están dispuestos en paralelo entre sí. es decir, los nodos en una capa particular pueden estar enviando o recibiendo información de la capa anterior o de la última de manera paralela. es decir. varias unidades se activan o desactivan al mismo tiempo. En teoría, esto debería resultar en cálculos generales más rápidos.

Por ejemplo, todas las capas de entrada obtendrían su valor de píxel respectivo del conjunto de datos al mismo tiempo, mientras que los valores de estas capas de entrada se pasarán a la siguiente capa, donde se realizarán más cálculos, todos juntos también.

Las representaciones en las redes conexionistas están distribuidas: la información se representa en las redes neuronales artificiales tanto en serie como en paralelo, mientras que los nodos o las unidades de una capa se organizan en un entorno paralelo, las capas entre sí se organizan de forma lineal.

El paso de información tiene lugar de forma feedforward (o bidireccional en el caso de las Redes Neuronales Recurrentes) mientras que el procesamiento tiene lugar en paralelo.

El procesamiento en redes conexionistas es local: La salida de todas las unidades en la capa oculta depende de dos factores, primero es la información o activación que recibió de la capa anterior (capa de entrada), y segundo, su propia función de activación. En cierto modo, esto afirma que para las redes neuronales no existe una autoridad central, sino que la responsabilidad se distribuye por igual entre los nodos o las unidades de la capa oculta. Una analogía podría ser cómo se comportan las personas en un entorno libre frente a un entorno controlado.

Por ejemplo, cuando va al parque, puede optar por correr, hacer ejercicio, jugar en las atracciones, etc., no hay restricciones sobre qué atracción puede tomar ni límites sobre dónde puede explorar en el parque. Ahora imagine un escenario donde hay una función en el parque, ahora hay límites para lo que puede hacer en el parque. Por ejemplo, habría territorios que estarían fuera de los límites y así sucesivamente. Por lo tanto, aquí en el primer caso, hay una noción paralela de la capacidad sin restricciones para tomar decisiones, mientras que en el segundo escenario hay un controlador invisible que puede restringir y permitir lo que puede o no puede hacer, el primer caso es cómo un neural funciona la red.

Las redes conexionistas toleran la entrada de baja calidad: puede haber un escenario en el que las nuevas imágenes no sean lo suficientemente claras o fáciles visualmente para emitir un juicio, si son una imagen de un perro o un gato.

De acuerdo con los experimentos, resulta que las redes neuronales son bastante robustas y competentes incluso cuando una imagen puede no ser tan clara como el conjunto de imágenes en el que podría haber sido entrenada.

Las redes conexionistas se degradan con gracia: la experiencia de la red neuronal se degrada cuando sus pesos se restablecen. Es como si la memoria del aprendizaje se estuviera perdiendo. Pero resulta que, a menos que muchos pesos hayan perdido su valor correcto, la red neuronal aún podría dar buenas predicciones, aunque con poca precisión. Pero, por supuesto, como intuitivamente sentimos al respecto, la calidad se degradará en proporción a la cantidad de pesos que pierdan su aprendizaje.

Mi explicación de la Evidencia a favor del Conexionismo (por Ravenscroft)

Bueno en lo que somos buenos; malos en lo que somos malos: hemos visto en la discusión anterior que las redes conexionistas tienen una gran capacidad de generalización de que ver algo de lo que parcialmente puede pensar que coincide es la esencia del aprendizaje y la adaptación. Esta habilidad está bastante sincronizada con la de los humanos en una tarea similar.

Tanto los humanos como las redes conexionistas se desempeñan bastante bien en las tareas de reconocimiento visual. Este es un punto en el que podemos iterar, "los modelos conexionistas son buenos en lo que somos buenos". Pero, ¿es simplemente un caso único, un caso atípico, o hay más de esas buenas, buenas situaciones?

A lo largo de los años, las redes neuronales han tenido éxito en una gran cantidad de situaciones en las que se creía que solo era posible por un ser humano. Para empezar ajedrez. En la década de 1990 nadie imaginaba que un campeón mundial de ajedrez como Gary Kasparov podría ser derrotado por una red. El ajedrez era algo que se consideraba la única distinción clave entre las capacidades humanas y las capacidades de las máquinas.

Pérdidas de Kasparov ante IBM Deep Blue/Fuente: https://theconversation.com/twenty-years-on-from-deep-blue-vs-kasparov-how-a-chess-match-started-the-big-data-revolution -76882

La victoria de IBM Deep Blue fue vista como un momento monumental de progreso en la comprensión e implementación de la inteligencia humana en una máquina. Desde entonces, ha habido una avalancha de ejemplos en los que tales redes neuronales han recreado las capacidades cognitivas humanas casi sin fallas, más ejemplos podrían incluir traducción de idiomas, diagnóstico de pacientes, etc. Al igual que sus contrapartes humanas, los modelos conexionistas tienen la capacidad de aprender y adaptarse.

Arquitectura similar al cerebro: al igual que en el caso de las redes neuronales, el cerebro también tiene una noción de paralelismo asociada a sus estructuras: cada unidad neuronal está conectada a otras neuronas. Pero además, existen diferencias entre los nodos artificiales y el cerebro. Si nos permitimos realizar una comparación con los aspectos biológicos de la comunicación neuronal, estaremos en una mejor posición para tener una opinión sobre la aplicabilidad de las redes neuronales en el estudio de la mente humana. Anteriormente discutimos cómo se entrenan las redes neuronales con el algoritmo de retropropagación.

Con la retropropagación, dijimos que nuestra esperanza es que los pesos se cambien de tal manera que mejore la capacidad de clasificación o regresión de la red. Todavía está por establecerse si alguna noción de retropropagación es cómo los seres humanos hacen correcciones a su 'modelo' de toma de decisiones. Además, la comunicación a nivel neuronal en los seres humanos ha sido ampliamente estudiada.

Según los neurocientíficos, las neuronas se comunican entre sí con la ayuda de sustancias químicas llamadas neurotransmisores. En comparación, las redes neuronales artificiales no tienen en cuenta estos factores al transferir la información de una capa a otra.

Razones del escepticismo hacia el conexionismo

Cuestión de la sistematicidad del lenguaje y el pensamiento: una de las principales razones del escepticismo hacia el conexionismo proviene de su incapacidad para tener en cuenta el argumento de la sistematicidad. Fodor y Pylyshyn afirmaron que a los conexionistas les resultará difícil explicar la sistematicidad del lenguaje. “La sistematicidad del lenguaje habla del hecho de que la capacidad de producir, comprender o pensar algunas oraciones está intrínsecamente conectada con la capacidad de producir, comprender o pensar otras de estructura afín”.

Por ejemplo, si alguien entiende el sentimiento y la semántica detrás de la oración "David admira a Rahul", entonces se puede esperar que entienda el sentimiento y la semántica detrás de las palabras "Rahul admira a David".

No existe una opinión cierta sobre si los modelos conexionistas son capaces de asegurar la sistematicidad. Mientras que, por otro lado, se puede probar fácilmente que la sistematicidad tiene su existencia en la escuela de pensamiento Teoría Computacional de la Mente. Como sus pensamientos se construyen de manera similar a los conceptos. Conocer el significado y las interrelaciones subyacentes entre las palabras 'Rahul', 'admira' y 'Dravid' implicaría que el oyente tiene el conocimiento sintáctico para sacar las conclusiones requeridas.

La sistematicidad del pensamiento, de acuerdo con Fodor y Pylyshyn, necesita relaciones sintácticas y semánticas con las representaciones mentales para permitir la existencia del lenguaje del pensamiento, mientras que en el caso de la teoría del conexionismo no se discuten las relaciones sintácticas y semánticas dentro de las representaciones mentales. representación; este debería ser un caso sólido contra la teoría del conexionismo, ya que no puede comentar sobre la sistematicidad del pensamiento.

Nativismo: El nativismo también aparece como un gran argumento en contra de la teoría del conexionismo. Según los nativistas, algunas habilidades son nativas del cerebro humano, es decir, están intrínsecamente arraigadas en el cerebro humano.

Goldstein y Jack A. Naglieri escriben sobre el nativismo: “Un conjunto de teorías que sostienen que las habilidades humanas y los procesos de desarrollo son innatos y están programados al nacer. Estas teorías informan las creencias sobre los procesos de desarrollo más estrechamente asociados con la adquisición inicial del lenguaje”.

Los antinativistas creen que los cerebros humanos entran en el mundo tabula rasa, es decir. en forma de pizarra en blanco. Pizarra en blanco en el sentido de que todas las habilidades y capacidades, incluida la comprensión del lenguaje, requieren dar sentido al mundo, no están inherentemente presentes en los humanos, sino que se desarrollan por los estímulos externos e interactúan con el entorno externo.

Los nativistas, por otro lado, creen que existe una comprensión inherente de las habilidades clave como el idioma. Según el lingüista Noam Chomsky, los niños nacen con un dispositivo de adquisición del lenguaje incrustado en el cerebro.

Deberíamos tener cuidado de no negar totalmente la noción nativista del modelo conexionista. Los modelos conexionistas tampoco están alineados con el camino empirista. Al igual que con el nativismo, la red de conexión también comienza con un conjunto de valores iniciales, aunque tienen poca importancia debido a su aleatoriedad, todavía es un poco de conocimiento para comenzar la red. Por lo tanto, también hay elementos de nativismo en el enfoque del conexionismo, pero qué tan bien definido podría estar y cuál será su implicación es una cuestión de investigación.

El conexionismo asume que la red inicialmente produce respuestas que no son mejores que una moneda al azar y solo después de que adquiere más conocimiento sobre el mundo, las predicciones mejoran. Recuerde que dijimos que inicialmente a todos los pesos se les asignan valores aleatorios que son tan buenos como establecer cada parámetro en cero, pero iniciar con cero todavía es, en cierto sentido, información que puede usarse para la toma de decisiones, por lo tanto, se asigna aleatoriedad. Por lo tanto, podemos ver por qué los nativistas se molestarán con los conexionistas.

Racionalidad: Las redes conexionistas se han diseñado a lo largo de los años para determinar la validez de argumentos simples. Se han llevado a cabo con éxito experimentos en los que el modelo ha sacado conclusiones sobre la base de la premisa.

Por ejemplo, a continuación se muestra uno de los escenarios de premisa y conclusión.

Premisa 1: Si A entonces B

Premisa 2: A

Conclusión B

Este es un argumento válido de la forma modus ponens.

Un ejemplo de un argumento incorrecto sería,

Premisa 1: Si A entonces B

Premisa 2: No A

Conclusión No B

Este es un argumento inválido ya que aquí la ocurrencia de A implica la ocurrencia de B, pero la negación no es verdadera ya que la premisa no discute nada sobre la relación entre A y B cuando no hay A.

Por ejemplo, "Si India gana la Copa del Mundo, iré a ver una película", en este caso el significado es que si la premisa de que India gana la Copa del Mundo resulta ser cierta, entonces la premisa de "Iré a la Copa del Mundo". película” también se realizará. No se discute la relación entre que India no gane la Copa del Mundo y qué impacto tendría en que yo vaya a ver una película. Todavía puedo ir al cine en caso de que India pierda, pero si India gana definitivamente iré al cine.

Bechtel y Abrahamsen realizaron una investigación sobre 6 argumentos del tipo que se da en el ejemplo. Después del entrenamiento, con cierta precisión, el modelo fue capaz de hacer la distinción entre argumentos válidos e inválidos. Con un corpus más grande, la precisión aumenta en unos pocos puntos porcentuales. Por lo tanto, aunque no es una evidencia completa, esto puede ser un paso en la dirección correcta para los conexionistas.

Explicabilidad de los modelos conexionistas: El modelo conexionista para resolver problemas de clasificaciones como el que discutimos todavía no dice mucho sobre cómo logra el éxito en la tarea. Mientras se nos da una imagen, podemos pensar que cada capa está buscando de alguna manera una característica particular y luego, en general, produce un consenso sobre si una imagen es de un perro o de un gato. Por ejemplo, la primera capa oculta observa si los bigotes están presentes o no, la segunda capa oculta (si la hay) evalúa la visibilidad de la lengua, y así sucesivamente. Por lo tanto, incluso cuando vemos una gran tasa de éxito con los modelos conexionistas para abordar tales problemas, aún debemos comprender completamente los matices de la red y su funcionamiento. Y sin profundizar completamente en el funcionamiento interno, podría ser difícil adoptar este enfoque para comprender la mente humana.

Bibliografía

Buckner, Cameron y James Garson. “Conexionismo”, 1997.https://plato.stanford.edu/entries/connectionism/#SysDeb.

Goldstein, Sam y Jack A. Naglieri, eds. Enciclopedia de Comportamiento y Desarrollo Infantil . Boston, MA: Springer EE. UU., 2011.https://doi.org/10.1007/978-0-387-79061-9.

Ravenscroft, Ian. Filosofía de la mente: una guía para principiantes. Oxford; Nueva York: Oxford University Press, 2005.

Este documento fue escrito como parte del requisito del curso de Filosofía de la Mente en el programa de Ciencias Cognitivas de Maestría en Ciencias Cognitivas del IIT Delhi impartido por la profesora Smita Sirker.

Alan Turing: Ideas tecnológicas que revolucionaron el siglo XX

El autor puede ser contactado enhttps://www.linkedin.com/in/sidgupta234

© Copyright 2021 - 2022 | unogogo.com | All Rights Reserved