PICOLOGIA COGNITIVA
ANALOGIA MENTE-ORDENADOR E INTELIGENCIA ARTIFICIAL
ANTECEDENTES
Desde distintos ángulos se ha estudiado el
conocimiento humano durante milenios. Tal vez los diálogos de Platón sean los
primeros esfuerzos sistemáticos por analizar esa maravillosa función de nuestro
cerebro que se enuncia tan sencillamente: conocer la realidad.
Pero después del sencillo
enunciado, las preguntas saltan por todas partes: ¿Qué es conocer? ¿Qué es la
realidad? ¿Cómo sabemos que sí conocemos la realidad y no somos más bien
víctimas de una ilusión?
La filosofía, y en
particular la epistemología, ha continuado debatiendo estos temas, que
desembocan en la conformación de la actual ciencia cognitiva. Podríamos
describirla como la disciplina que pretende acercarse a esas mismas preguntas
sobre el conocimiento humano elaboradas por la filosofía y la epistemología,
con todas las herramientas que la psicología, la antropología, la lingüística,
la neurología y la informática han ido acumulando durante el último siglo.
Describamos brevemente estas
cinco corrientes científicas que están aportando los materiales para la nueva
síntesis cognitiva alrededor de las preguntas filosóficas sobre el
conocimiento.
Tal vez la corriente
principal que desemboca en la actual ciencia cognitiva es la de la psicología.
Al empezar a hacerse evidentes las limitaciones del programa del Análisis
Experimental de la Conducta y de la tecnología educativa propuesta por esa
escuela, los psicólogos empezaron a revaluar las líneas de investigación que
habían sido descalificadas como "poco científicas" por los seguidores
de Watson y Skinner. La psicología de la "Gestalt" de Wertheimer,
Köhler y Koffka en Alemania y Austria; la psicología genética de Jean Piaget en
Suiza y Francia; la escuela de Vygotsky en la Unión Soviética, y las propuestas
de Jerome Bruner en los Estados Unidos, volvieron a cobrar actualidad entre los
psicólogos que trataban de acercarse al problema del conocimiento humano.
Tanto en la filosofía como
en la psicología empezó a hacerse evidente la necesidad de analizar con más
cuidado el lenguaje; la filosofía analítica, la socio-linguística y la
psico-linguística empezaron a desarrollarse aceleradamente, a medida que la
linguística se enriquecía con las contribuciones de Wittgenstein, de Saussure,
Bloomfield y Noham Chomsky. Hoy es pues la linguística una herramienta
indispensable en la ciencia cognitiva.
Los fracasos de los intentos
de extender los resultados de las investigaciones psicológicas hechas en Suiza,
Francia o los Estados Unidos a otras culturas, empezaron a cuestionar las
mediciones psicométricas de los cocientes de inteligencia y de las etapas de
desarrollo del pensamiento formal. La antropología entró de lleno a la palestra
del debate cognitivo, contribuyendo con el análisis de los modos de pensar, los
tipos de saberes, los procesos educativos y las especificidades de la
comunicación de las distintas culturas, y develando las cargas y sesgos
culturales de las pruebas de inteligencia que se creían "objetivas".
La neurología se desarrolló
también rápidamente, precisando el alcance y las limitaciones de las teorías de
las localizaciones cerebrales, analizando el comportamiento de los ganglios
neurales de moluscos e insectos, y de los cerebros de ranas, monos y gatos.
Alexander Luria en la Unión Soviética correlacionó cuidadosamente las lesiones
cerebrales con los retrocesos en el desempeño aritmético de sus pacientes,
introduciendo así una especie de microscopio que captaba en reversa las etapas
de la construcción de conocimientos matemáticos. Sin estas y otras muchas
contribuciones de la neurología, sería impensable la ciencia cognitiva actual.
Paralelamente
se estaban desarrollando en los Estados Unidos, impulsadas sobre todo por
científicos como Norbert Wiener y John von Neumann, recientemente emigrados de
Europa, la nueva disciplina que posteriormente se llamó "cibernética"
y la teoría de la información, que iniciaron Shannon y Weaver en la década de
los cuarenta; disciplinas que entraron a formar parte de lo que hoy es la
informática. Estas disciplinas empezaron a intentar explicaciones del
funcionamiento del cerebro desde los modelos sugeridos por los progresos en la
construcción de computadores, en ese tiempo llamados significativamente
"cerebros electrónicos". Se conforma así el llamado "hexágono de
la ciencia cognitiva" con los aportes de estas seis disciplinas: la
filosofía, la psicología, la antropología, la lingüística, la informática y la
neurología.[1]
El aporte inicial específico
de la informática a la ciencia cognitiva fue aquello que Jerome Bruner llamó
"una de las más avasalladoras metáforas" de la década de los
cincuenta: la de la computación electrónica como modelo del procesamiento de la
información en el cerebro .
George Miller, el autor del
"mágico número siete" como límite superior de los receptáculos de
memoria de trabajo en el cerebro humano, señaló la importancia de la simulación
por computador de los procesos cognitivos humanos como una de las piezas claves
de la ciencia cognitiva .
Muy significativamente, el
libro póstumo de John von Neumann se llamó "El Computador y el
Cerebro" . Pero él mismo había enunciado esa metáfora desde el simposio de
la Fundación Hixon sobre mecanismos cerebrales en el comportamiento, celebrado
en el Instituto Tecnológico de California "Caltech" en septiembre de
1948; simposio que se considera como el precursor del desarrollo de la ciencia
cognitiva en la postguerra.
Podríamos decir pues que la
metáfora del cerebro como computador lleva casi cincuenta años de existencia,
desde el tiempo en que los primeros computadores electrónicos con centenares de
tubos de vacío hacían pesadamente los cómputos balísticos para el ejército
norteamericano hasta el día de hoy en que un "chip" de tercera
generación, con un volumen de apenas un centímetro cúbico, hace el mismo
trabajo que uno de esos monstruos antediluvianos de la primera generación, con
sus muchos metros cúbicos de volumen, y además lo hace mil veces más rápido.
DESARROLLO DE LA ANALOGÍA
La metáfora del ordenador consiste en considerar la
mente como si fuera un ordenador: un sistema que recibe, almacena y procesa
información. Se supone que todas nuestras actividades mentales son consecuencia
de la sucesiva acción de una serie de reglas (semejantes a las instrucciones de
un programa informático) sobre contenidos informativos (representaciones),
contenidos equivalentes a los datos que procesa el ordenador. La tarea de la
psicología sería descubrir las reglas o procedimientos que en cada caso están a
la base de nuestra cognición: la percepción, la memoria, el razonamiento... En cierto modo como si se
buscara el auténtico software de la mente. Esta metáfora ha sido muy utilizada
por la psicología cognitiva como guía en sus investigaciones sobre la mente y la
conducta, y supone una concepción extremadamente racionalista del psiquismo
humano, acercando este enfoque a otras áreas del conocimiento como la Inteligencia
Artificial. [2]
El paradigma cognitivo en psicología se apoya en la llamada 'metáfora del ordenador', según la cual la mente humana y la computadora son sistemas de procesamiento funcionalmente equivalentes, siendo ambos ejemplos de una abstracción inventada por Turing en 1937, la "máquina universal", una máquina que podía pensar como el hombre, y que podía, por tanto, engañar a un observador.
El paradigma cognitivo en psicología se apoya en la llamada 'metáfora del ordenador', según la cual la mente humana y la computadora son sistemas de procesamiento funcionalmente equivalentes, siendo ambos ejemplos de una abstracción inventada por Turing en 1937, la "máquina universal", una máquina que podía pensar como el hombre, y que podía, por tanto, engañar a un observador.
Impresionados
por la apariencia errática y azarosa de la conducta humana, muchos psicólogos
empezaron a buscar desde la década del '50 modelos menos probabilistas y más
deterministas, naciendo así las teorías de la 'competencia' en lingüística
(Chomsky, 1957) y la psicología cognitiva.
La
analogía entre mente y ordenador es funcional, no física. Se asemejan en el
sofware (operan con símbolos o representaciones, tienen procesos análogos de
codificación, almacenamiento, organización de los datos, etc.) pero no en el
hardware (neuronas vs. circuitos integrados). No obstante, la metáfora del
ordenador fue muy fértil: sirvió como fuente de hipótesis, herramientas
conceptuales y notaciones útiles, y permitió superar el impasse del
asociacionismo.
LIMITACIONES DE LA METAFORA
DEL ORDENADOR
:
La metáfora del cerebro como computador
privilegia lo individual sobre lo social.
Aunque
la intervención de la antropología en la constitución de la ciencia cognitiva
pueda moderar esta limitación, no puede negarse el que se centre en lo
individual que se deriva de considerar cada persona como un computador
encerrado en una frágil caja ósea en la parte superior de un cuerpo, el cual
solo sirve de interfaz entre el mundo y la máquina.
:
La metáfora del cerebro como computador
privilegia lo cognoscitivo sobre lo afectivo.
Aunque
los investigadores cognitivos sean concientes de ese sesgo, como lo fue en su
tiempo Piaget respecto a la psicología genética, no deja de ser preocupante el
olvido de los factores afectivos que incentivan o impiden el progreso en el
conocimiento. La fobia hacia las matemáticas, que tan bien describió Seymour
Papert y bautizó con el nombre de "matofobia", es tal vez el factor
preponderante en el bajo rendimiento en matemáticas en niños y adolescentes .
:
La metáfora del
cerebro como computador privilegia lo intelectual sobre lo psico-motriz.
Aunque
Piaget hubiera propuesto que las operaciones mentales provienen de la
interiorización, reversibilización y coordinación de las acciones
senso-motrices del niño, la restricción de los modelos a la programación de un
computador cerebral parece olvidar esa propuesta. Desde el punto de vista
motriz, los computadores actuales solo pueden recibir y expulsar diskettes y
accionar impresoras. Hasta los robots más eficientes sólo siguen programas
previamente establecidos, y aún no aprenden de la exploración abierta de su
entorno. Esta limitación hace que los modelos computacionales no tengan en
cuenta este aspecto fundamental del aprendizaje infantil.
Además
de estas tres limitaciones detectables desde el punto de vista científico, la
metáfora del computador, como toda metáfora, tiene la tendencia a convertirse
en obstáculo epistemológico en el sentido de Bachelard. El investigador que la
utiliza, deslumbrado por su mismo éxito, tiende a extenderla a todos los
campos, y se enceguece respecto a las limitaciones de la metáfora y a las
posibles alternativas que no se sometan a su hegemonía.
Howard
Gardner subraya la paradoja que va surgiendo al ritmo mismo del progreso en la investigación
cognitiva: mientras más se refinan los programas que pretenden simular los
comportamientos considerados como inteligentes, más claramente se perciben las
diferencias entre los computadores así programados y la manera como proceden
los niños, los adolescentes y los expertos.
Por
otra parte, si no se hubieran hecho esos esfuerzos de simulación por
computador, no se habrían detectado tan claramente esas diferencias, ni se
podría avanzar en la conceptualización de sus especificidades.
La
metáfora del computador, como los demás obstáculos epistemológicos, tiene pues
un papel claramente dialéctico que no subrayó suficientemente Bachelard, tal
vez por haber insistido ante todo en el aspecto
La psicología cognitiva ha
adoptado la metáfora del ordenador para pensar sobre la mente. La mente procesa la información, la
codifica, la almacena y la recupera como un ordenador. Nuestro cerebro es el
hardware sobre el que corren programas que nos permiten hablar, ver o pensar
(el software). La Inteligencia Artificial adopta la imagen especular y, en su
versión fuerte, no de manera metafórica sino literal: Un ordenador es una
mente. Los circuitos son distintos a los del cerebro y los programas con
frecuencia también, aunque produzcan resultados semejantes a la conducta
humana; pero cuando estos se ejecutan, la máquina piensa, igual que la mente
cuando procesa la información.
¿Qué es la inteligencia
artificial?
Desarrollo y utilización de
ordenadores con los que se intenta reproducir los procesos de la inteligencia humana. Como ya
existe una gran dificultad en definir la inteligencia, es de imaginar que
también existirán dificultades en definir la Inteligencia Artificial. Muchas
son también las definiciones que se han planteado a lo largo de la evolución de
esta área del conocimiento.
IA es la ciencia de hacer
con que las máquinas realicen tareas que requieren de inteligencia si son
realizadas por los seres humanos. También se puede considerar como el estudio
de técnicas que permiten a los computadores realizar tareas, que hasta ahora,
los seres humanos realizan mejor. Otra definición puede ser que la IA es el
campo de estudio, en las Ciencias de la Computación, cuyo objetivo es hacer que
los computadores razonen de manera similar a los seres Humanos.
El término Inteligencia
Artificial fue propuesto por John McCarthy en 1956: La IA es la ciencia y la
ingeniería de hacer máquinas inteligentes, pero especialmente de hacer
programas inteligentes. Está relacionado también con el uso de máquinas para
mejorar la comprensión de la inteligencia humana. Sin embargo, la IA no tiene
que limitarse únicamente a métodos observables biológicamente. De esta forma,
la IA es un campo inherentemente multidisciplinar. A pesar de que comúnmente es
vista como una sub-área de la ciencia de la computación y trabaja con
algoritmos, bases de datos, etc. la IA tiene una fuerte conexión con la
neurociencia, las ciencias cognitivas, la matemática y la ingeniería, por
nombrar algunas áreas.
Otra forma de definir la IA
es definirla como una herramienta computacional que tiene la capacidad de
procesar conocimientos (datos ® informaciones ® conocimientos) y que será
utilizada en el curso de la asignatura.[3]
Por ahora, es suficientemente claro que el objetivo de
la IA es el de entender la naturaleza de la inteligencia a través del diseño de
sistemas computacionales que la exhiban. En forma más concreta, puede afirmarse
que, en lo que ha transcurrido de su corta historia, la IA ha estado dirigida
por tres objetivos generales:
Con estos propósitos en su agenda de investigación,
los estudiosos de la IA han recurrido al uso de cuatro diferentes estrategias
metodológicas:
La simulación: que se hace en IA ha intentado reproducir algunas de
las características inteligentes de los seres humanos. Estas reproducciones han
buscado abiertamente la similitud entre una computadora y los seres humanos. La
elaboración de simulaciones ha sugerido la posibilidad de explorar los procesos
cognoscitivos humanos, sin embargo los esfuerzos en esta línea, a diferencia
del modelamiento, han estado dedicados a producir comportamiento humano
inteligente en las computadoras más que a entenderlo o explicarlo.
El modelamiento: por otra parte, tiene como objeto la utilización de
los sistemas de IA para entender a la inteligencia humana. Ha sido
tradicionalmente utilizado por psicólogos y no tiene como requisito necesario
el uso de computadoras, De hecho, muchas de las teorías sobre cognición han
utilizado modelos en computadoras sin hacer referencia a ellas, por ejemplo, la
teoría sobre memoria semántica o sobre representación mental.
El trabajo teórico en IA: ha abierto por primera vez la posibilidad de teorizar
sobre la inteligencia sin hacer necesariamente referencia a la inteligencia
humana. Es decir, se ha propuesto la formulación de una teoría de la
inteligencia "pura". [4]
BREVE HISTORIA DE LA
INTELIGENCIA ARTIFICIAL
Los esfuerzos por reproducir algunas habilidades
mentales humanas en máquinas y androides se remontan muy atrás en la historia.
El mito del coloso de Rodas entre los griegos, las estatuas
"parlantes" del medioevo, el androide de Von Kempelen que jugó al ajedrez
con Napoleón, y el "motor analítico" de Charles Babbage que calculaba
logaritmos, son sólo algunos de los ejemplos de este antiguo interés.
Igualmente, la concepción de la inteligencia humana como un mecanismo no es
reciente ni ha estado disociada de la psicología: Descartes, Hobbes, Leibniz, y
el mismo Hume se refirieron a la mente humana como una forma de mecanismo.
Durante el siglo XIX y la primera mitad del XX, las
analogías biológicas y fenomenológicas desplazaron a la noción de mecanismo en
el estudio de la mente humana. Sin embargo, a partir de la segunda mitad de
nuestro siglo, la noción de mecanismo renovó su poder heurístico con la
formalización de la noción de "computación".
Como algunas máquinas, especialmente las calculadoras,
se diseñaron para evitar el tener que pensar y para hacer el pensamiento más
rápido y exacto, fue inevitable que desde sus orígenes las calculadoras, y más
adelante las computadoras, se relacionaran con la inteligencia y el pensamiento
enfatizando sus similitudes.
La IA fue introducida a la comunidad científica en
1950 por el inglés Alan Turing en su artículo "Maquinaria Computacional e
Inteligencia." A pesar de que la investigación sobre el diseño y las
capacidades de las computadoras comenzaron algún tiempo antes, fue hasta que
apareció el artículo de Turing que la idea de una máquina inteligente cautivó
la atención de los científicos.
La pregunta básica que Turing trató de responder
afirmativamente en su artículo era: ¿pueden las máquinas pensar? Los argumentos
de Turing en favor de la posibilidad de inteligencia en las máquinas, iniciaron
un intenso debate que marcó claramente la primera etapa de interacción entre la
IA y la psicología. Los debates en aquella época se centraron en el análisis de
la serie de problemas implicados en la aplicación de términos mentalistas a las
computadoras. La intención de Turing no era la de usar estos términos como
analogías sino la de eliminar la distinción entre inteligencia natural e
inteligencia artificial.
Dos de las contribuciones más importantes de Turing a
la IA fueron el diseño de la primera computadora capaz de jugar ajedrez y, más
importante que esto, el establecimiento de la naturaleza simbólica de la
computación.
El trabajo de Turing, quien falleció prematuramente,
fue continuado en los Estados Unidos por John Von Neumann durante la década de
los cincuentas. Su contribución central fue la idea de que las computadoras
deberían diseñarse tomando como modelo al cerebro humano. Von Neumann fue el
primero en "antropomorfizar" el lenguaje y la concepción de la
computación al hablar de la "memoria", los "sensores",
etc., de las computadoras. Construyó una serie de máquinas utilizando lo que a
principios de los cincuentas se conocía sobre el cerebro humano, y diseñó los
primeros programas almacenados en la memoria de una computadora.
Sin embargo, esta línea de investigación pronto
encontró serias limitaciones. La concentración en la imitación de la
constitución físico-química del cerebro, no permitió ver, a Von Neumann y sus
seguidores, que la analogía sería mucho más eficiente si se estudiaran las
funciones del cerebro, es decir, sus capacidades como procesador de
información.
Corresponde a McCulloch, a mediados de los cincuentas,
formular una posición radicalmente distinta al sostener que las leyes que
gobiernan al pensamiento deben buscarse entre las reglas que gobiernan a la
información y no entre las que gobiernan a la materia. Esta idea abrió grandes
posibilidades a la IA. En esta línea, Minsky (1959), uno de los padres fundadores
de la IA, modificó su posición y sostuvo que la imitación del cerebro a nivel
celular debería ser abandonada.
Es más o menos en esta época que ocurre un evento que
organizaría y daría un gran impulso al desarrollo de la IA: el congreso en
Darthmouth (1956). En este congreso, en el que se reunieron los padres
fundadores de la disciplina, se llegó a la definición de las presuposiciones
básicas del núcleo teórico de la IA:
Desde fines de los cincuentas la investigación en IA se
expande y se multiplica en direcciones diversas. La capacidad simbólica de las
computadoras es estudiada, entre otros, por Shanon (1950) y por Newell, Shaw y
Simon (1958) quienes diseñan el primer programa inteligente basado en su modelo
de procesamiento de información. Este modelo de Newell, Shaw y Simon habría de
convertirse pronto en la teoría dominante en psicología cognoscitiva.
Algunos investigadores se dedicaron al estudio de la
naturaleza del aprendizaje en las computadoras y a los procesos de reconocimiento
de patrones visuales. Como resultado de ello Selfridge y Dinneen consiguen
diseñar el primer programa capaz de aprender por experiencia (ver McCorduck,
1979).
Basándose en los estudios sobre memoria asociativa, el
equipo Newell-Shaw-Simon construyó los primeros lenguajes de procesamiento de
información (IPL-I, IPL-II) utilizados en el diseño de su "Logic Theorist
Machine" que se convirtió en la primera máquina "inteligente".
Esta máquina fue capaz no sólo de memorizar y aprender, sitio que consiguió
demostrar de una manera original y "creativa", es decir no prevista
por sus creadores, algunos de los teoremas propuestos por Bertrand Russell en
los Principios (Russell and Whitehead, 1925).
Desde sus orígenes la IA se relacionó con juegos como
el ajedrez y las damas, probablemente debido a que los juegos de mesa
constituyen modelos de situaciones reales en las que hay que calcular,
solucionar problemas, tomar decisiones, corregir errores, recordar, etc. A
pesar de que esta línea de investigación ha sido casi totalmente abandonada en
la actualidad, muchos de los avances teóricos y metodológicos de la IA se deben
a ella. Por ejemplo, Samuel diseñó en 1961 un programa que jugaba damas y que
era capaz de aprender de sus errores, es decir, era capaz de adaptar su
comportamiento en relación a eventos pasados. Lo pasmoso de este programa fue
que, aunada a su capacidad de aprendizaje la de memoria, con el tiempo
consiguió derrotar invariablemente a su creador. El mismo resultado fue
obtenido por Bernstein a través de un programa que jugaba ajedrez (Boden,
1977). Los grandes "retos" entre computadoras y seres humanos se
multiplicaron, siendo el más famoso de ellos el que ocurrió entre Dreyfus (un
enconado crítico de la IA) y el programa Machack, en el que Dreyfus fue
derrotado en un juego de ajedrez de varias horas.
A principios de los sesentas, la IA comienza una fase
distinta de su desarrollo. En 1962, McCarthy y Raphael inician sus trabajos
sobre el diseño y la construcción de un robot móvil que llamarían
"Shakey". La diferencia fundamental entre este robot y los programas
en computadora utilizados hasta ahora por la IA, es que "Shakey"
tendría que enfrentar el reto de interactuar con el mundo real en términos de
espacio, tiempo, movimiento, etc. En otras palabras, el robot tendría que tener
alguna forma de "conocimiento" del mundo que lo rodeaba. Este reto
inició una fuerte preocupación en la IA por el estudio de la epistemología y
los procesos cognoscitivos. La discusión se centró alrededor de los problemas
de la representación mental o interna del conocimiento, la percepción y los
problemas del significado. La idea básica de Raphael era la de reunir, en una
sola, distintas máquinas con capacidad de aprender por experiencia, de
reconocer patrones visuales, de modelar, de manipular símbolos, etc., y esperar
que el todo fuera mayor que la suma de las partes. El resultado del experimento
no fue el éxito que Raphael esperaba, pero fue un logro sin precedente que hizo
posibles avances muy importantes. El aprendizaje más importante de esta
experiencia fue la comprensión de que el problema más difícil por resolver en
IA era el de construir una máquina capaz de funcionar con altos ni<,eles de
incertidumbre, como lo hace un ser humano. Se hizo claro que construir una
máquina que no lidiara efectivamente con la incertidumbre sería una de dos: o
trivial, por la simpleza de la tarea, o imposible por la complejidad de la
misma.
Hacia mediados de los sesentas la IA se convierte en
un área en la que se interesan e interactúan especialistas de diversas
disciplinas: lógicos, psicólogos, matemáticos, lingüistas, filósofos, etc. Uno
de los grandes temas de IA en esta década fue el estudio del lenguaje. En la
mayoría de los estudios iniciales sobre lenguaje, se atacó el problema de
diseñar una máquina que fuera capaz de traducir de un idioma a otro. El énfasis
se hizo en el análisis de la sintaxis, en lugar del significado, estrategia que
se abandonó relativamente pronto. Los investigadores interesados en esta área
de la IA pronto descubrieron que traducción no es lo mismo que transformación,
y que, como consecuencia de ello, de alguna manera la máquina tendría que
"entender" un texto antes de poder traducirlo. Los esfuerzos se
orientaron hacia una definición de la comprensión que pudiera simularse en una
computadora.
Con esta idea como lineamiento heurístico, se
desarrolló una serie de programas que exploraban esta serie de habilidades
relacionadas con el lenguaje y la comprensión: el "oráculo" de
Phillips, "Sad Sam" de Lindzay que fue uno de los más exitosos, y
"Eliza" de Wizenbaum y Colby. (. El programa de Lindzay se orientó
hacia el estudio del significado, connotativo y denotativo, y es capaz de hacer
inferencias, conocer, y parafrasear sobre el mundo conocido. Eliza, por otra
parte, consistió en un análisis de la conversación que se basa en la simulación
de una terapia psicológica interactiva en la que el programa es el analista y
el interlocutor es el analizado. Un ejemplo de una conversación sostenida con
Eliza en la computadora de la Universidad de Stanford es el siguiente (el
diálogo de la computadora en letras mayúsculas):
Según Colby, psicoanalista por entrenamiento,
el programa resultó tan exitoso en términos clínicos que valdría la pena
intentar reproducirlo masivamente como instrumento terapéutico. Intento al que
Weizenbaum, coautor del programa, se opuso decididamente con el argumento de
que no puede decirse desde ningún punto de vista que "Eliza" es capaz
de entender lo que se le dice. "Eliza", Weizenbaum insiste, es un
programa capaz de responder, que no es lo mismo que comprender.
Como resultado de este y otros debates, las preguntas
de investigación siguieron girando alrededor de la noción de comprensión. Los
seres humanos comprendemos en una plática mucho más de lo que se nos dice
explícita y verbalmente (en parte porque la comunicación no verbal juega un
papel muy importante y en parte por nuestras capacidades para obtener
información del contexto y para operar con altos niveles de incertidumbre) y
pareció importante que estas habilidades fueran reproducidas en una computadora
con pretensiones de inteligencia. Los investigadores se dedicaron entonces al
estudio de los aspectos no-verbales del lenguaje y al de reconocimiento de
patrones.
Para mediados de los sesentas, y como resultado de los
estudios sobre lenguaje y comprensión. la IA se involucré en el estudio del
problema de la representación mental del conocimiento. Igualmente, una gran
preocupación en esta década fue la de encontrar aplicaciones prácticas de lo
que se había aprendido hasta entonces. Entre las aplicaciones más exitosas debe
mencionarse el diseño de DENDRAL en Stanford, un programa que hace
espectogramas y diagnósticos médicos y que hasta ahora ha tenido la misma tasa
de error que los seres humanos. La segunda aplicación importante tiene que ver
con la psicología educativa y la mencionaré en la siguiente sección sobre la
interacción entre la IA y la psicología.
LA INTERACCIÓN ENTRE IA Y PSICOLOGÍA: TEORÍA Y MÉTODO
A pesar de que la interacción (entre IA y
psicología no es ya ninguna novedad, los mejores frutos y resultados de esta
interacción están aún por venir.
Haciendo a un lado la importante preocupación que los
especialistas en IA tienen por la construcción de sistemas electrónicos de
computación, es evidente que la psicología y la IA se empalman en gran medida.
Es decir, ambas disciplinas están preocupadas con la explicación y resolución
de los mismos problemas básicos, sus soluciones pueden ser comparadas una
contra otra, y su éxito o fracaso puede evaluarse con el mismo criterio. El
objetivo de la IA y la psicología es el de entender aspectos diversos de la
mente humana y de la inteligencia en general y, en esencia, el juicio final que
tendrán que enfrentar tendrá que ver con la cantidad y la calidad de las
explicaciones que proporcionen sobre la naturaleza de la actividad mental.
Esto no debe hacernos verlas, como algunas personas
han sugerido, como rivales teóricas necesariamente. Por el contrario, hasta
ahora, la psicología ha sido la mejor y más rica fuente de teorías y conjeturas
para la IA y, a su vez, que la IA es la mejor medicina que la psicología
necesita en el estadio actual de su desarrollo.
Una de las contribuciones centrales de la IA se
relaciona con un problema que ha agobiado a psicólogos y filósofos por más de
doscientos años: el problema de la representación interna. Por mucho tiempo ha
sido evidente que la única psicología capaz de dar cuenta de las complejidades
de la actividad mental tendría que explicar e incluir procesos de
representación interna. Por ejemplo, es la opinión de la mayoría de los psicológicos
que sería imposible explicar el fenómeno de la percepción si no presuponemos
que su función es proveernos con una imagen mental o modelo del mundo en el que
vivimos y actuamos de una forma más o menos exitosa.
Esta premisa de la representación interna ha sido
aceptada por todos los psicólogos con la excepción de los conductistas
radicales como Watson o Skinner. Las representaciones internas han sido
denominadas hasta ahora de formas distintas: ideas, sensaciones, impresiones.
Más recientemente nos referimos a ellas como esquemas cognoscitivos, mapas
mentales, proposiciones, imágenes, o señales neuronales. Sólo este breve
recuento de las distintas denominaciones de las representaciones mentales hace
obvias dos conclusiones: primero, el acuerdo existente sobre la necesidad de
incluirlas en nuestras explicaciones de la actividad mental, y, segundo, el
desacuerdo general sobre su naturaleza y características.
No es sino hasta la aparición de la noción de
"estructuras de datos" dentro de la IA que el problema parece
comenzar a resolverse. Las "estructuras de datos" pueden o no tener
validez psicológica, es algo que está aún por aclararse, lo que ya es claro es
que constituyen el primer y único ejemplo operante de representaciones que se
"entiendan a sí mismas". Las estructuras de datos han permitido la
construcción de sistemas intencionales que son resultado del diseño de
subsistemas con habilidades específicas y simples que se encuentran organizados
entre sí. Estos subsistemas se subdividen a su vez en microsistemas más
especializados y simples, que a su vez se componen de sistemas más pequeños y
tan simples que sus respuestas son binarias. El sistema total consigue modelar
una forma operante de representación.
REFERENCIAS:
(s.f.). Obtenido de
http://psidesarrollo2equipo16.wikispaces.com/TEMA+3.
Elguea, J. (s.f.). Inteligencia
artificial y psicología: la concepción contemporánea de la mente humana.
Obtenido de www.biblioteca.itam.mx:
http:///estudios/estudio/estudio10/sec_13.html
Saldías, M. C. (7 de
Abril de 2006). Apunte de Inteligencia Artificial. Recuperado el Agosto
de 2012
Vasco, C. E. (1993). LA
METÁFORA DEL CEREBRO COMO COMPUTADOR EN LA CIENCIA COGNITIVA. Informática
Educativa ,Vol. 6 Nº 2 , 1-2.
Best Pokies Games Online Pokies – How To Play - ChoE Casinos
ResponderEliminarThis online worrione casino website aims to provide players with some of the best casino games at choegocasino the casino. You can join the 메리트 카지노 주소 website to discover