viernes, 14 de septiembre de 2012

PSICOLOGÍA COGNITIVA


PICOLOGIA COGNITIVA

ANALOGIA MENTE-ORDENADOR  E INTELIGENCIA ARTIFICIAL


 

ANTECEDENTES
 Desde distintos ángulos se ha estudiado el conocimiento humano durante milenios. Tal vez los diálogos de Platón sean los primeros esfuerzos sistemáticos por analizar esa maravillosa función de nuestro cerebro que se enuncia tan sencillamente: conocer la realidad.
Pero después del sencillo enunciado, las preguntas saltan por todas partes: ¿Qué es conocer? ¿Qué es la realidad? ¿Cómo sabemos que sí conocemos la realidad y no somos más bien víctimas de una ilusión?
La filosofía, y en particular la epistemología, ha continuado debatiendo estos temas, que desembocan en la conformación de la actual ciencia cognitiva. Podríamos describirla como la disciplina que pretende acercarse a esas mismas preguntas sobre el conocimiento humano elaboradas por la filosofía y la epistemología, con todas las herramientas que la psicología, la antropología, la lingüística, la neurología y la informática han ido acumulando durante el último siglo.
Describamos brevemente estas cinco corrientes científicas que están aportando los materiales para la nueva síntesis cognitiva alrededor de las preguntas filosóficas sobre el conocimiento.
Tal vez la corriente principal que desemboca en la actual ciencia cognitiva es la de la psicología. Al empezar a hacerse evidentes las limitaciones del programa del Análisis Experimental de la Conducta y de la tecnología educativa propuesta por esa escuela, los psicólogos empezaron a revaluar las líneas de investigación que habían sido descalificadas como "poco científicas" por los seguidores de Watson y Skinner. La psicología de la "Gestalt" de Wertheimer, Köhler y Koffka en Alemania y Austria; la psicología genética de Jean Piaget en Suiza y Francia; la escuela de Vygotsky en la Unión Soviética, y las propuestas de Jerome Bruner en los Estados Unidos, volvieron a cobrar actualidad entre los psicólogos que trataban de acercarse al problema del conocimiento humano.
Tanto en la filosofía como en la psicología empezó a hacerse evidente la necesidad de analizar con más cuidado el lenguaje; la filosofía analítica, la socio-linguística y la psico-linguística empezaron a desarrollarse aceleradamente, a medida que la linguística se enriquecía con las contribuciones de Wittgenstein, de Saussure, Bloomfield y Noham Chomsky. Hoy es pues la linguística una herramienta indispensable en la ciencia cognitiva.
Los fracasos de los intentos de extender los resultados de las investigaciones psicológicas hechas en Suiza, Francia o los Estados Unidos a otras culturas, empezaron a cuestionar las mediciones psicométricas de los cocientes de inteligencia y de las etapas de desarrollo del pensamiento formal. La antropología entró de lleno a la palestra del debate cognitivo, contribuyendo con el análisis de los modos de pensar, los tipos de saberes, los procesos educativos y las especificidades de la comunicación de las distintas culturas, y develando las cargas y sesgos culturales de las pruebas de inteligencia que se creían "objetivas".
La neurología se desarrolló también rápidamente, precisando el alcance y las limitaciones de las teorías de las localizaciones cerebrales, analizando el comportamiento de los ganglios neurales de moluscos e insectos, y de los cerebros de ranas, monos y gatos. Alexander Luria en la Unión Soviética correlacionó cuidadosamente las lesiones cerebrales con los retrocesos en el desempeño aritmético de sus pacientes, introduciendo así una especie de microscopio que captaba en reversa las etapas de la construcción de conocimientos matemáticos. Sin estas y otras muchas contribuciones de la neurología, sería impensable la ciencia cognitiva actual.
 
Paralelamente se estaban desarrollando en los Estados Unidos, impulsadas sobre todo por científicos como Norbert Wiener y John von Neumann, recientemente emigrados de Europa, la nueva disciplina que posteriormente se llamó "cibernética" y la teoría de la información, que iniciaron Shannon y Weaver en la década de los cuarenta; disciplinas que entraron a formar parte de lo que hoy es la informática. Estas disciplinas empezaron a intentar explicaciones del funcionamiento del cerebro desde los modelos sugeridos por los progresos en la construcción de computadores, en ese tiempo llamados significativamente "cerebros electrónicos". Se conforma así el llamado "hexágono de la ciencia cognitiva" con los aportes de estas seis disciplinas: la filosofía, la psicología, la antropología, la lingüística, la informática y la neurología.[1]
El aporte inicial específico de la informática a la ciencia cognitiva fue aquello que Jerome Bruner llamó "una de las más avasalladoras metáforas" de la década de los cincuenta: la de la computación electrónica como modelo del procesamiento de la información en el cerebro .
George Miller, el autor del "mágico número siete" como límite superior de los receptáculos de memoria de trabajo en el cerebro humano, señaló la importancia de la simulación por computador de los procesos cognitivos humanos como una de las piezas claves de la ciencia cognitiva .
Muy significativamente, el libro póstumo de John von Neumann se llamó "El Computador y el Cerebro" . Pero él mismo había enunciado esa metáfora desde el simposio de la Fundación Hixon sobre mecanismos cerebrales en el comportamiento, celebrado en el Instituto Tecnológico de California "Caltech" en septiembre de 1948; simposio que se considera como el precursor del desarrollo de la ciencia cognitiva en la postguerra.
Podríamos decir pues que la metáfora del cerebro como computador lleva casi cincuenta años de existencia, desde el tiempo en que los primeros computadores electrónicos con centenares de tubos de vacío hacían pesadamente los cómputos balísticos para el ejército norteamericano hasta el día de hoy en que un "chip" de tercera generación, con un volumen de apenas un centímetro cúbico, hace el mismo trabajo que uno de esos monstruos antediluvianos de la primera generación, con sus muchos metros cúbicos de volumen, y además lo hace mil veces más rápido.

DESARROLLO DE LA ANALOGÍA
La metáfora del ordenador consiste en considerar la mente como si fuera un ordenador: un sistema que recibe, almacena y procesa información. Se supone que todas nuestras actividades mentales son consecuencia de la sucesiva acción de una serie de reglas (semejantes a las instrucciones de un programa informático) sobre contenidos informativos (representaciones), contenidos equivalentes a los datos que procesa el ordenador. La tarea de la psicología sería descubrir las reglas o procedimientos que en cada caso están a la base de nuestra cognición: la percepción, la memoria, el razonamiento... En cierto modo como si se buscara el auténtico software de la mente. Esta metáfora ha sido muy utilizada por la psicología cognitiva como guía en sus investigaciones sobre la mente y la conducta, y supone una concepción extremadamente racionalista del psiquismo humano, acercando este enfoque a otras áreas del conocimiento como la Inteligencia Artificial. [2]
El paradigma cognitivo en psicología se apoya en la llamada 'metáfora del ordenador', según la cual la mente humana y la computadora son sistemas de procesamiento funcionalmente equivalentes, siendo ambos ejemplos de una abstracción inventada por Turing en 1937, la "máquina universal", una máquina que podía pensar como el hombre, y que podía, por tanto, engañar a un observador.
Impresionados por la apariencia errática y azarosa de la conducta humana, muchos psicólogos empezaron a buscar desde la década del '50 modelos menos probabilistas y más deterministas, naciendo así las teorías de la 'competencia' en lingüística (Chomsky, 1957) y la psicología cognitiva.
La analogía entre mente y ordenador es funcional, no física. Se asemejan en el sofware (operan con símbolos o representaciones, tienen procesos análogos de codificación, almacenamiento, organización de los datos, etc.) pero no en el hardware (neuronas vs. circuitos integrados). No obstante, la metáfora del ordenador fue muy fértil: sirvió como fuente de hipótesis, herramientas conceptuales y notaciones útiles, y permitió superar el impasse del asociacionismo.
LIMITACIONES DE LA METAFORA DEL ORDENADOR
: La metáfora del cerebro como computador privilegia lo individual sobre lo social.
Aunque la intervención de la antropología en la constitución de la ciencia cognitiva pueda moderar esta limitación, no puede negarse el que se centre en lo individual que se deriva de considerar cada persona como un computador encerrado en una frágil caja ósea en la parte superior de un cuerpo, el cual solo sirve de interfaz entre el mundo y la máquina.
: La metáfora del cerebro como computador privilegia lo cognoscitivo sobre lo afectivo.
Aunque los investigadores cognitivos sean concientes de ese sesgo, como lo fue en su tiempo Piaget respecto a la psicología genética, no deja de ser preocupante el olvido de los factores afectivos que incentivan o impiden el progreso en el conocimiento. La fobia hacia las matemáticas, que tan bien describió Seymour Papert y bautizó con el nombre de "matofobia", es tal vez el factor preponderante en el bajo rendimiento en matemáticas en niños y adolescentes .
: La metáfora del cerebro como computador privilegia lo intelectual sobre lo psico-motriz.
Aunque Piaget hubiera propuesto que las operaciones mentales provienen de la interiorización, reversibilización y coordinación de las acciones senso-motrices del niño, la restricción de los modelos a la programación de un computador cerebral parece olvidar esa propuesta. Desde el punto de vista motriz, los computadores actuales solo pueden recibir y expulsar diskettes y accionar impresoras. Hasta los robots más eficientes sólo siguen programas previamente establecidos, y aún no aprenden de la exploración abierta de su entorno. Esta limitación hace que los modelos computacionales no tengan en cuenta este aspecto fundamental del aprendizaje infantil.
Además de estas tres limitaciones detectables desde el punto de vista científico, la metáfora del computador, como toda metáfora, tiene la tendencia a convertirse en obstáculo epistemológico en el sentido de Bachelard. El investigador que la utiliza, deslumbrado por su mismo éxito, tiende a extenderla a todos los campos, y se enceguece respecto a las limitaciones de la metáfora y a las posibles alternativas que no se sometan a su hegemonía.
Howard Gardner subraya la paradoja que va surgiendo al ritmo mismo del progreso en la investigación cognitiva: mientras más se refinan los programas que pretenden simular los comportamientos considerados como inteligentes, más claramente se perciben las diferencias entre los computadores así programados y la manera como proceden los niños, los adolescentes y los expertos.
Por otra parte, si no se hubieran hecho esos esfuerzos de simulación por computador, no se habrían detectado tan claramente esas diferencias, ni se podría avanzar en la conceptualización de sus especificidades.
La metáfora del computador, como los demás obstáculos epistemológicos, tiene pues un papel claramente dialéctico que no subrayó suficientemente Bachelard, tal vez por haber insistido ante todo en el aspecto


 

La psicología cognitiva ha adoptado la metáfora del ordenador para pensar sobre  la mente. La mente procesa la información, la codifica, la almacena y la recupera como un ordenador. Nuestro cerebro es el hardware sobre el que corren programas que nos permiten hablar, ver o pensar (el software). La Inteligencia Artificial adopta la imagen especular y, en su versión fuerte, no de manera metafórica sino literal: Un ordenador es una mente. Los circuitos son distintos a los del cerebro y los programas con frecuencia también, aunque produzcan resultados semejantes a la conducta humana; pero cuando estos se ejecutan, la máquina piensa, igual que la mente cuando procesa la información.
¿Qué es la inteligencia artificial?
Desarrollo y utilización de ordenadores con los que se intenta reproducir los procesos de la inteligencia humana. Como ya existe una gran dificultad en definir la inteligencia, es de imaginar que también existirán dificultades en definir la Inteligencia Artificial. Muchas son también las definiciones que se han planteado a lo largo de la evolución de esta área del conocimiento.
IA es la ciencia de hacer con que las máquinas realicen tareas que requieren de inteligencia si son realizadas por los seres humanos. También se puede considerar como el estudio de técnicas que permiten a los computadores realizar tareas, que hasta ahora, los seres humanos realizan mejor. Otra definición puede ser que la IA es el campo de estudio, en las Ciencias de la Computación, cuyo objetivo es hacer que los computadores razonen de manera similar a los seres Humanos.
El término Inteligencia Artificial fue propuesto por John McCarthy en 1956: La IA es la ciencia y la ingeniería de hacer máquinas inteligentes, pero especialmente de hacer programas inteligentes. Está relacionado también con el uso de máquinas para mejorar la comprensión de la inteligencia humana. Sin embargo, la IA no tiene que limitarse únicamente a métodos observables biológicamente. De esta forma, la IA es un campo inherentemente multidisciplinar. A pesar de que comúnmente es vista como una sub-área de la ciencia de la computación y trabaja con algoritmos, bases de datos, etc. la IA tiene una fuerte conexión con la neurociencia, las ciencias cognitivas, la matemática y la ingeniería, por nombrar algunas áreas.
Otra forma de definir la IA es definirla como una herramienta computacional que tiene la capacidad de procesar conocimientos (datos ® informaciones ® conocimientos) y que será utilizada en el curso de la asignatura.[3]
Por ahora, es suficientemente claro que el objetivo de la IA es el de entender la naturaleza de la inteligencia a través del diseño de sistemas computacionales que la exhiban. En forma más concreta, puede afirmarse que, en lo que ha transcurrido de su corta historia, la IA ha estado dirigida por tres objetivos generales:
1.      El análisis teórico de las posibles explicaciones del comportamiento inteligente
2.      La explicación de habilidades mentales humanas
3.      La construcción de artefactos (computadoras) inteligentes
Con estos propósitos en su agenda de investigación, los estudiosos de la IA han recurrido al uso de cuatro diferentes estrategias metodológicas:
La simulación: que se hace en IA ha intentado reproducir algunas de las características inteligentes de los seres humanos. Estas reproducciones han buscado abiertamente la similitud entre una computadora y los seres humanos. La elaboración de simulaciones ha sugerido la posibilidad de explorar los procesos cognoscitivos humanos, sin embargo los esfuerzos en esta línea, a diferencia del modelamiento, han estado dedicados a producir comportamiento humano inteligente en las computadoras más que a entenderlo o explicarlo.
El modelamiento: por otra parte, tiene como objeto la utilización de los sistemas de IA para entender a la inteligencia humana. Ha sido tradicionalmente utilizado por psicólogos y no tiene como requisito necesario el uso de computadoras, De hecho, muchas de las teorías sobre cognición han utilizado modelos en computadoras sin hacer referencia a ellas, por ejemplo, la teoría sobre memoria semántica o sobre representación mental.
El trabajo teórico en IA: ha abierto por primera vez la posibilidad de teorizar sobre la inteligencia sin hacer necesariamente referencia a la inteligencia humana. Es decir, se ha propuesto la formulación de una teoría de la inteligencia "pura". [4]
BREVE HISTORIA DE LA INTELIGENCIA ARTIFICIAL
Los esfuerzos por reproducir algunas habilidades mentales humanas en máquinas y androides se remontan muy atrás en la historia. El mito del coloso de Rodas entre los griegos, las estatuas "parlantes" del medioevo, el androide de Von Kempelen que jugó al ajedrez con Napoleón, y el "motor analítico" de Charles Babbage que calculaba logaritmos, son sólo algunos de los ejemplos de este antiguo interés. Igualmente, la concepción de la inteligencia humana como un mecanismo no es reciente ni ha estado disociada de la psicología: Descartes, Hobbes, Leibniz, y el mismo Hume se refirieron a la mente humana como una forma de mecanismo.
Durante el siglo XIX y la primera mitad del XX, las analogías biológicas y fenomenológicas desplazaron a la noción de mecanismo en el estudio de la mente humana. Sin embargo, a partir de la segunda mitad de nuestro siglo, la noción de mecanismo renovó su poder heurístico con la formalización de la noción de "computación".
Como algunas máquinas, especialmente las calculadoras, se diseñaron para evitar el tener que pensar y para hacer el pensamiento más rápido y exacto, fue inevitable que desde sus orígenes las calculadoras, y más adelante las computadoras, se relacionaran con la inteligencia y el pensamiento enfatizando sus similitudes.
La IA fue introducida a la comunidad científica en 1950 por el inglés Alan Turing en su artículo "Maquinaria Computacional e Inteligencia." A pesar de que la investigación sobre el diseño y las capacidades de las computadoras comenzaron algún tiempo antes, fue hasta que apareció el artículo de Turing que la idea de una máquina inteligente cautivó la atención de los científicos.
La pregunta básica que Turing trató de responder afirmativamente en su artículo era: ¿pueden las máquinas pensar? Los argumentos de Turing en favor de la posibilidad de inteligencia en las máquinas, iniciaron un intenso debate que marcó claramente la primera etapa de interacción entre la IA y la psicología. Los debates en aquella época se centraron en el análisis de la serie de problemas implicados en la aplicación de términos mentalistas a las computadoras. La intención de Turing no era la de usar estos términos como analogías sino la de eliminar la distinción entre inteligencia natural e inteligencia artificial.
Dos de las contribuciones más importantes de Turing a la IA fueron el diseño de la primera computadora capaz de jugar ajedrez y, más importante que esto, el establecimiento de la naturaleza simbólica de la computación.
El trabajo de Turing, quien falleció prematuramente, fue continuado en los Estados Unidos por John Von Neumann durante la década de los cincuentas. Su contribución central fue la idea de que las computadoras deberían diseñarse tomando como modelo al cerebro humano. Von Neumann fue el primero en "antropomorfizar" el lenguaje y la concepción de la computación al hablar de la "memoria", los "sensores", etc., de las computadoras. Construyó una serie de máquinas utilizando lo que a principios de los cincuentas se conocía sobre el cerebro humano, y diseñó los primeros programas almacenados en la memoria de una computadora.
Sin embargo, esta línea de investigación pronto encontró serias limitaciones. La concentración en la imitación de la constitución físico-química del cerebro, no permitió ver, a Von Neumann y sus seguidores, que la analogía sería mucho más eficiente si se estudiaran las funciones del cerebro, es decir, sus capacidades como procesador de información.
Corresponde a McCulloch, a mediados de los cincuentas, formular una posición radicalmente distinta al sostener que las leyes que gobiernan al pensamiento deben buscarse entre las reglas que gobiernan a la información y no entre las que gobiernan a la materia. Esta idea abrió grandes posibilidades a la IA. En esta línea, Minsky (1959), uno de los padres fundadores de la IA, modificó su posición y sostuvo que la imitación del cerebro a nivel celular debería ser abandonada.
Es más o menos en esta época que ocurre un evento que organizaría y daría un gran impulso al desarrollo de la IA: el congreso en Darthmouth (1956). En este congreso, en el que se reunieron los padres fundadores de la disciplina, se llegó a la definición de las presuposiciones básicas del núcleo teórico de la IA:
1.  El reconocimiento de que el pensamiento puede ocurrir fuera del cerebro, es decir, en máquinas
2.  La presuposición de que el pensamiento puede ser comprendido de manera formal y científica
3.  La presuposición de que la mejor forma de entenderlo es a través de computadoras digitales
Desde fines de los cincuentas la investigación en IA se expande y se multiplica en direcciones diversas. La capacidad simbólica de las computadoras es estudiada, entre otros, por Shanon (1950) y por Newell, Shaw y Simon (1958) quienes diseñan el primer programa inteligente basado en su modelo de procesamiento de información. Este modelo de Newell, Shaw y Simon habría de convertirse pronto en la teoría dominante en psicología cognoscitiva.
Algunos investigadores se dedicaron al estudio de la naturaleza del aprendizaje en las computadoras y a los procesos de reconocimiento de patrones visuales. Como resultado de ello Selfridge y Dinneen consiguen diseñar el primer programa capaz de aprender por experiencia (ver McCorduck, 1979).
Basándose en los estudios sobre memoria asociativa, el equipo Newell-Shaw-Simon construyó los primeros lenguajes de procesamiento de información (IPL-I, IPL-II) utilizados en el diseño de su "Logic Theorist Machine" que se convirtió en la primera máquina "inteligente". Esta máquina fue capaz no sólo de memorizar y aprender, sitio que consiguió demostrar de una manera original y "creativa", es decir no prevista por sus creadores, algunos de los teoremas propuestos por Bertrand Russell en los Principios (Russell and Whitehead, 1925).
Desde sus orígenes la IA se relacionó con juegos como el ajedrez y las damas, probablemente debido a que los juegos de mesa constituyen modelos de situaciones reales en las que hay que calcular, solucionar problemas, tomar decisiones, corregir errores, recordar, etc. A pesar de que esta línea de investigación ha sido casi totalmente abandonada en la actualidad, muchos de los avances teóricos y metodológicos de la IA se deben a ella. Por ejemplo, Samuel diseñó en 1961 un programa que jugaba damas y que era capaz de aprender de sus errores, es decir, era capaz de adaptar su comportamiento en relación a eventos pasados. Lo pasmoso de este programa fue que, aunada a su capacidad de aprendizaje la de memoria, con el tiempo consiguió derrotar invariablemente a su creador. El mismo resultado fue obtenido por Bernstein a través de un programa que jugaba ajedrez (Boden, 1977). Los grandes "retos" entre computadoras y seres humanos se multiplicaron, siendo el más famoso de ellos el que ocurrió entre Dreyfus (un enconado crítico de la IA) y el programa Machack, en el que Dreyfus fue derrotado en un juego de ajedrez de varias horas.
A principios de los sesentas, la IA comienza una fase distinta de su desarrollo. En 1962, McCarthy y Raphael inician sus trabajos sobre el diseño y la construcción de un robot móvil que llamarían "Shakey". La diferencia fundamental entre este robot y los programas en computadora utilizados hasta ahora por la IA, es que "Shakey" tendría que enfrentar el reto de interactuar con el mundo real en términos de espacio, tiempo, movimiento, etc. En otras palabras, el robot tendría que tener alguna forma de "conocimiento" del mundo que lo rodeaba. Este reto inició una fuerte preocupación en la IA por el estudio de la epistemología y los procesos cognoscitivos. La discusión se centró alrededor de los problemas de la representación mental o interna del conocimiento, la percepción y los problemas del significado. La idea básica de Raphael era la de reunir, en una sola, distintas máquinas con capacidad de aprender por experiencia, de reconocer patrones visuales, de modelar, de manipular símbolos, etc., y esperar que el todo fuera mayor que la suma de las partes. El resultado del experimento no fue el éxito que Raphael esperaba, pero fue un logro sin precedente que hizo posibles avances muy importantes. El aprendizaje más importante de esta experiencia fue la comprensión de que el problema más difícil por resolver en IA era el de construir una máquina capaz de funcionar con altos ni<,eles de incertidumbre, como lo hace un ser humano. Se hizo claro que construir una máquina que no lidiara efectivamente con la incertidumbre sería una de dos: o trivial, por la simpleza de la tarea, o imposible por la complejidad de la misma.
Hacia mediados de los sesentas la IA se convierte en un área en la que se interesan e interactúan especialistas de diversas disciplinas: lógicos, psicólogos, matemáticos, lingüistas, filósofos, etc. Uno de los grandes temas de IA en esta década fue el estudio del lenguaje. En la mayoría de los estudios iniciales sobre lenguaje, se atacó el problema de diseñar una máquina que fuera capaz de traducir de un idioma a otro. El énfasis se hizo en el análisis de la sintaxis, en lugar del significado, estrategia que se abandonó relativamente pronto. Los investigadores interesados en esta área de la IA pronto descubrieron que traducción no es lo mismo que transformación, y que, como consecuencia de ello, de alguna manera la máquina tendría que "entender" un texto antes de poder traducirlo. Los esfuerzos se orientaron hacia una definición de la comprensión que pudiera simularse en una computadora.
Con esta idea como lineamiento heurístico, se desarrolló una serie de programas que exploraban esta serie de habilidades relacionadas con el lenguaje y la comprensión: el "oráculo" de Phillips, "Sad Sam" de Lindzay que fue uno de los más exitosos, y "Eliza" de Wizenbaum y Colby. (. El programa de Lindzay se orientó hacia el estudio del significado, connotativo y denotativo, y es capaz de hacer inferencias, conocer, y parafrasear sobre el mundo conocido. Eliza, por otra parte, consistió en un análisis de la conversación que se basa en la simulación de una terapia psicológica interactiva en la que el programa es el analista y el interlocutor es el analizado. Un ejemplo de una conversación sostenida con Eliza en la computadora de la Universidad de Stanford es el siguiente (el diálogo de la computadora en letras mayúsculas):

BUENAS TARDES, POR FAVOR ESCRIBA SU NOMBRE
buenas tardes, me llamo Javier
ES UN PLACER CONOCERTE, JAVIER
el placer es mio
¿QUE TE TRAE POR AQUI?
nada en especial, he tenido trabajo y me siento agotado
¿QUE TE HACE PENSAR QUE ESTAS AGOTADO?
he tenido problemas en mi trabajo
¿PROBLEMAS?
es decir, he estado preocupado con mi trabajo
CUENTAME TUS PREOCUPACIONES...
Según Colby, psicoanalista por entrenamiento, el programa resultó tan exitoso en términos clínicos que valdría la pena intentar reproducirlo masivamente como instrumento terapéutico. Intento al que Weizenbaum, coautor del programa, se opuso decididamente con el argumento de que no puede decirse desde ningún punto de vista que "Eliza" es capaz de entender lo que se le dice. "Eliza", Weizenbaum insiste, es un programa capaz de responder, que no es lo mismo que comprender.
Como resultado de este y otros debates, las preguntas de investigación siguieron girando alrededor de la noción de comprensión. Los seres humanos comprendemos en una plática mucho más de lo que se nos dice explícita y verbalmente (en parte porque la comunicación no verbal juega un papel muy importante y en parte por nuestras capacidades para obtener información del contexto y para operar con altos niveles de incertidumbre) y pareció importante que estas habilidades fueran reproducidas en una computadora con pretensiones de inteligencia. Los investigadores se dedicaron entonces al estudio de los aspectos no-verbales del lenguaje y al de reconocimiento de patrones.
Para mediados de los sesentas, y como resultado de los estudios sobre lenguaje y comprensión. la IA se involucré en el estudio del problema de la representación mental del conocimiento. Igualmente, una gran preocupación en esta década fue la de encontrar aplicaciones prácticas de lo que se había aprendido hasta entonces. Entre las aplicaciones más exitosas debe mencionarse el diseño de DENDRAL en Stanford, un programa que hace espectogramas y diagnósticos médicos y que hasta ahora ha tenido la misma tasa de error que los seres humanos. La segunda aplicación importante tiene que ver con la psicología educativa y la mencionaré en la siguiente sección sobre la interacción entre la IA y la psicología.
LA INTERACCIÓN ENTRE IA Y PSICOLOGÍA: TEORÍA Y MÉTODO
A pesar de que la interacción (entre IA y psicología no es ya ninguna novedad, los mejores frutos y resultados de esta interacción están aún por venir.
Haciendo a un lado la importante preocupación que los especialistas en IA tienen por la construcción de sistemas electrónicos de computación, es evidente que la psicología y la IA se empalman en gran medida. Es decir, ambas disciplinas están preocupadas con la explicación y resolución de los mismos problemas básicos, sus soluciones pueden ser comparadas una contra otra, y su éxito o fracaso puede evaluarse con el mismo criterio. El objetivo de la IA y la psicología es el de entender aspectos diversos de la mente humana y de la inteligencia en general y, en esencia, el juicio final que tendrán que enfrentar tendrá que ver con la cantidad y la calidad de las explicaciones que proporcionen sobre la naturaleza de la actividad mental.
Esto no debe hacernos verlas, como algunas personas han sugerido, como rivales teóricas necesariamente. Por el contrario, hasta ahora, la psicología ha sido la mejor y más rica fuente de teorías y conjeturas para la IA y, a su vez, que la IA es la mejor medicina que la psicología necesita en el estadio actual de su desarrollo.
Una de las contribuciones centrales de la IA se relaciona con un problema que ha agobiado a psicólogos y filósofos por más de doscientos años: el problema de la representación interna. Por mucho tiempo ha sido evidente que la única psicología capaz de dar cuenta de las complejidades de la actividad mental tendría que explicar e incluir procesos de representación interna. Por ejemplo, es la opinión de la mayoría de los psicológicos que sería imposible explicar el fenómeno de la percepción si no presuponemos que su función es proveernos con una imagen mental o modelo del mundo en el que vivimos y actuamos de una forma más o menos exitosa.
Esta premisa de la representación interna ha sido aceptada por todos los psicólogos con la excepción de los conductistas radicales como Watson o Skinner. Las representaciones internas han sido denominadas hasta ahora de formas distintas: ideas, sensaciones, impresiones. Más recientemente nos referimos a ellas como esquemas cognoscitivos, mapas mentales, proposiciones, imágenes, o señales neuronales. Sólo este breve recuento de las distintas denominaciones de las representaciones mentales hace obvias dos conclusiones: primero, el acuerdo existente sobre la necesidad de incluirlas en nuestras explicaciones de la actividad mental, y, segundo, el desacuerdo general sobre su naturaleza y características.
No es sino hasta la aparición de la noción de "estructuras de datos" dentro de la IA que el problema parece comenzar a resolverse. Las "estructuras de datos" pueden o no tener validez psicológica, es algo que está aún por aclararse, lo que ya es claro es que constituyen el primer y único ejemplo operante de representaciones que se "entiendan a sí mismas". Las estructuras de datos han permitido la construcción de sistemas intencionales que son resultado del diseño de subsistemas con habilidades específicas y simples que se encuentran organizados entre sí. Estos subsistemas se subdividen a su vez en microsistemas más especializados y simples, que a su vez se componen de sistemas más pequeños y tan simples que sus respuestas son binarias. El sistema total consigue modelar una forma operante de representación.
REFERENCIAS:
(s.f.). Obtenido de http://psidesarrollo2equipo16.wikispaces.com/TEMA+3.
Elguea, J. (s.f.). Inteligencia artificial y psicología: la concepción contemporánea de la mente humana. Obtenido de www.biblioteca.itam.mx: http:///estudios/estudio/estudio10/sec_13.html
Saldías, M. C. (7 de Abril de 2006). Apunte de Inteligencia Artificial. Recuperado el Agosto de 2012
Vasco, C. E. (1993). LA METÁFORA DEL CEREBRO COMO COMPUTADOR EN LA CIENCIA COGNITIVA. Informática Educativa ,Vol. 6 Nº 2 , 1-2.


[1] (Vasco, 1993)
[2] (htt)
[3] (Saldías, 2006)
[4] (Elguea)

1 comentario:

  1. Best Pokies Games Online Pokies – How To Play - ChoE Casinos
    This online worrione casino website aims to provide players with some of the best casino games at choegocasino the casino. You can join the 메리트 카지노 주소 website to discover

    ResponderEliminar