Con los avances en Psicología iniciados a partir del siglo XIX se ha logrado acabar con la concepción dualista que definía la mente como un ente abstracto disociado del cuerpo. A través de estudios científicos se ha establecido una interacción directa mente-cuerpo, por la que todos los procesos mentales pueden localizarse en regiones específicas del cerebro. De esta premisa surge una necesidad que lleva a entender de forma más precisa su funcionamiento. Por ello, no es sorpresa que los mayores avances científicos del último siglo estén relacionados al estudio del cerebro humano y de mecanismos cerebrales semejantes a los de nuestra especie.

Se sabe que el cerebro básicamente puede definirse como una red intrincada de neuronas que procesan datos provenientes de estímulos tanto internos como externos para generar una respuesta. Esta red neuronal puede ser modificada por procesos de aprendizaje, que aumentan o disminuyen la fuerza de sinapsis interneuronal, y que son posteriormente almacenadas de modo que permitan a posteriori una respuesta más eficaz a uno o varios estímulos, lo que constituye la memoria.

A raíz de estos principios ha sido imposible evitar la comparación de la función cognitiva con otros sistemas de procesamiento de datos. De esta manera surge, a mediados del siglo XX, la “metáfora del ordenador”. Un ordenador no es más que un artefacto inerte creado por la tecnología, pero la semejanza de su funcionamiento con la mente humana (entrada de datos, procesamiento y almacenamiento de la información, y finalmente respuesta) es objeto de discusión.

Aunque no es exacto fijar el nacimiento del primer ordenador, algunos historiadores señalan durante la Segunda Guerra Mundial el proyecto “Colossus”. Consistió en desarrollar, a cargo del matemático Alan Turing y bajo el mando de la inteligencia británica, una sofisticada “calculadora” con el objetivo de descifrar el código binario usado por los alemanes en sus comunicaciones militares. A partir de máquinas como ésta se desencadenaron una serie de avances tecnológicos que finalmente desembocaron en la complejidad de la informática moderna.

La pregunta es: ¿Pueden las computadoras “pensar” del mismo modo que la mente humana? Y si la respuesta es sí, entonces ¿Llegarán a ser “más inteligentes” que sus propios creadores?

Para definir la extensión de la Inteligencia Artificial (I.A.) el propio Alan Turing en 1950 ideó un método práctico que se pudiera evaluar. La prueba de Turing consiste en que para considerar a una máquina inteligente, debe lograr engañar a un evaluador en creer que esta máquina se trata de un humano. Básicamente, consiste en que un evaluador debe tipear preguntas en una pantalla y recibirá dos respuestas diferentes, una proveniente de un humano y la otra de una máquina. Al final de la prueba, el evaluador deberá decir cuál de los sujetos era humano y máquina. Si el diálogo que ocurra y el número de errores en la solución dada se acerca al número de errores ocurridos en la comunicación con un ser humano, se podrá estimar, según Turing, que estamos ante una máquina "inteligente".

Aunque es dudoso afirmar cuán exacta es la prueba de Turing en determinar la Inteligencia Artificial, no es difícil suponer que dentro de algunos años la complejidad de las computadoras será tal que impida diferenciar fácilmente sus respuestas al compararlas con las de un humano. Aún así, una diferencia importante está en que la mente humana trabaja reglas “simbólicas”, constantemente infiltradas por la necesidad y por el deseo inconsciente, función que no posee una máquina salvo en la ciencia-ficción. Precisamente lo que tratan de explicar con sus teorías Freud, Erikson, Piaget y muchos otros.

Sin embargo, los límites de la Inteligencia Artificial están aún por definirse. Si los avances de la mente en el siglo XXI consisten en ubicar específicamente el lugar del cerebro en donde ocurren, ¿quién dice que para el siglo XXII o XXIII no serán para transponer esas funciones mentales a un contenedor más permanente?