Inteligencia artificialBreve historia de la Inteligencia Artificial

Con la que conocerás sus orígenes, evolución y situación en la actualidad.
Hipernexo5 meses hace2047 min

La historia de la inteligencia artificial es fascinante, y hablar de IA se ha vuelto desde hace algunos años algo normal; incluso cientos de millones personas están habituadas a interactuar diariamente con sistemas inteligentes como los asistentes de voz de los smartphones o el asistente personal de Windows o Google: es una realidad cada vez más presente en nuestra cotidianidad, a la que los niños y jóvenes se adaptan con mayor facilidad.

La inteligencia artificial (IA) como disciplina es bastante joven, sus inicios datan de la década de los 40 del siglo pasado con la aparición de algunos trabajos de investigación sobre este incipiente campo; el matemático y uno de los padres de la ciencia, Alan Turing, fue quien llevó a la inteligencia artificial a la comunidad científica con la publicación en 1950 del trabajo titulado Computing Machinery and Intelligence (Máquinas de computación e inteligencia).

En dicho trabajo Turing lanza la siguiente interrogante: ¿puede pensar una máquina? En ese momento histórico tal consideración se consideraba demasiado filosófica teniendo en cuenta el aún incipiente avance de las computadoras y la electrónica; sin embargo los trabajos de Turing tuvieron un impacto impresionante desde el punto de vista teórico en el nacimiento de la inteligencia artificial como disciplina científica.

Antecedentes históricos de la Inteligencia artificial

Aunque se habla de la I.A. como disciplina desde hace relativamente poco tiempo, la curiosidad por el funcionamiento de la mente humana y la posibilidad de recrearla de forma artificial se remonta a a cientos e incluso miles de años.

300 a.C. – Aristóteles

Los primeros registros sobre algún estudio que buscara entender el funcionamiento de la mente humana datan de cerca de 300 años antes de la era cristiana. Aristóteles, el famoso filósofo griego, describió algunas reglas básicas que trataban de describir el funcionamiento de la mente humana, y siguiendo paso a paso estas reglas se puede llegar a conclusiones racionales, a partir de ciertas premisas dadas.

250 a.C. – Ctesibio de Alejandría

El inventor y matemático Ctesibio de Alejandría construyó en el año 250 a.C. un regulador de flujo de agua capaz de modificar su comportamiento, el cual empleó en su famoso reloj clepsidra, un avance sin precedentes para aquella época.

1260 – Ramón Llull

El filósofo mallorquín Ramón Llull, que vivió entre los años 1232 y 1315, fue el primero en plantear la idea que el razonamiento podía realizarse de forma artificial: una idea revolucionaria para su época, por lo que se le considera uno de los más grandes visionarios de la historia.

Siglo XIX – George Boole

A mediados del siglo XIX George Boole desarrolló la lógica proposicional, conocida como álgebra booleana, que se convertiría en la base de la aritmética computacional, por lo que se le considera uno de los precursores de las ciencias de la computación.

Siglo XIX – Gottlob Frege

Treinta años más tarde el matemático alemán Gottlob Frege, basándose en la lógica booleana, crea la Lógica de Primer Orden, la cual se usa actualmente en las ciencias computacionales y en estudios de inteligencia artificial.

Siglo XX – Lee De Forest

A principios del siglo XX Lee De Forest, destacado inventor norteamericano, patenta la válvula de vacío triodo, primera válvula electrónica de amplificación que se convertiría en la base de los desarrollos electrónicos modernos.

1.936 – Alan Turing

En 1936 Turing publicó Números Calculables un artículo que tuvo gran repercusión. En él se establecen las bases teóricas de las ciencias computacionales, y se le considera el origen oficial de la informática ya que en él se introduce el concepto de Máquina de Turing, considerada la precursora de las computadoras modernas.

1.941 – Konrad Zuse

Cuatro años más tarde un equipo de científicos, entre los que estaba Alan Turing, lograron construir la primera computadora electromecánica; en 1941 Konrad Zuse crea el primer computador programable ,así como el lenguaje Plankalkül, el primer lenguaje de programación de alto nivel que se usaba para programarla; también se crearon las máquinas ABC y ENIAC, más poderosas aunque funcionaban con el mismo concepto.

1.943 – Warren McCulloch y Walter Pitts

En 1943 Warren McCulloch y Walter Pitts presentan públicamente el modelo de neuronas artificiales: este trabajo se considera pionero en el campo de la Inteligencia Artificial; no obstante este término aún no existía, y por entonces se utilizaba el término inteligencia maquinaria, que habían empleado ya los investigadores ingleses.

1.951 – William Shockley

En 1951 el físico estadounidense William Shockley patenta el transistor bipolar de unión, un pequeño dispositivo fabricado con materiales semiconductores que posibilitó la creación de computadoras de menor tamaño y mayor velocidad de procesamiento. Shockley junto a sus colegas John Bardeen y Walter Houser Brattain obtuvo el premio Nobel de Física en 1956 por sus investigaciones sobre los semiconductores.

Los inicios de la inteligencia artificial como disciplina

En 1956 se realiza una conferencia en Dartmouth College (Dartmouth Summer Research Project on Artificial Intelligence) convocada por el reconocido científico estadounidense John McCarthy a la cual asistieron los investigadores Marvin Minsky, Herbert Simon, Arthur Samuel y Allen Newell. La conferencia de Dartmouth se considera el primer evento sobre Inteligencia Artificial, incluso en él se acuñaría el término con que se conoce desde entonces esta disciplina.

Esta conferencia marcó el inicio de una nueva disciplina técnico-científica, que nació con un marcado entusiasmo. Los investigadores pensaban en aquel entonces que en los siguientes 10 años se podrían crear máquinas con inteligencia artificial. No obstante, en los primeros años de la IA como disciplina se dieron algunos avances muy importantes con la creación de máquinas capaces de resolver problemas de media y alta complejidad.

conferencia en Dartmouth College en 1.956

A principios de la década de los 60 del siglo pasado, importantes universidades norteamericanas como el Instituto de Tecnología de Massachusetts (MIT) y la Universidad de Stanford crearon sus laboratorios de Inteligencia Artificial, pioneros en la investigación científica en esta campo, que hoy día se mantienen funcionando y se convirtieron en un modelo para las universidades del mundo entero.

A pesar del entusiasmo inicial de la naciente disciplina, los investigadores se dieron cuenta en poco tiempo de que sus predicciones no se cumplirían tan fácilmente: los retos eran mucho más grandes de lo que pensaban inicialmente, y afirmaciones como la hecha por Minsky de que su generación sería capaz de resolver las dificultades para crear inteligencia artificial, tuvieron que ser reevaluadas.

Esto produjo un desencanto con la nueva disciplina por parte de muchos de sus promotores, lo que causó la pérdida de gran parte de la financiación de las investigaciones, abriéndose una etapa muy complicada para la Inteligencia Artificial. Tal fue así que se llegó al punto de que muchas investigaciones se abandonaron y quedaron olvidadas por cerca de 15 años.

Un nuevo impulso a la Inteligencia Artificial

La Inteligencia Artificial como disciplina recibe un nuevo impulso con el boom de los sistemas expertos que se vivió en la década de los ochenta del siglo XX. Las grandes empresas de automoción convirtieron estos sistemas en un estándar para sus operaciones de ensamblaje y fabricación de vehículos, lo que ayudó a que la IA dejara de ser sólo ciencia ficción para convertirse en una parte importante de los procesos industriales.

Los sistemas expertos o sistemas comerciales cambiaron los proyectos iniciales de IA: ya no se trataba de crear robots inteligentes, sino que los nuevos proyectos se enfocaban en crear máquinas que cumplieran tareas industriales específicas. El primer sistema experto desarrollado con éxito fue el RI, capaz de seleccionar de forma automática los componentes de un sistema informático con una exactitud del 98%.

Deep Blue Vs. Kasparov

En la década de los noventa las investigaciones sobre las aplicaciones de la Inteligencia Artificial en la industria y en la floreciente informática continuaron su avance; en 1996 aparece Deep Blue, la primera gran máquina con inteligencia artificial: esta supercomputadora fabricada por el gigante de la computación del momento IBM se enfrentó nada más y nada menos que con Gary Kasparov, campeón mundial de ajedrez.

Contra todo pronóstico Deep Blue derrotó a Kasparov en 1996 y volvió a realizar su hazaña un año más tarde. Esta máquina era capaz de analizar más de 200 jugadas en tan sólo un segundo; surgió entonces una duda: ¿podía hacer estos análisis de forma estratégica? La respuesta para sorpresa de muchos fue un rotundo sí: aunque Kasparov nunca lo aceptó y pensó que su derrota se debió a que una mente humana manipulaba a Deep Blue.

La Inteligencia Artificial en el nuevo siglo

El nuevo siglo ha traído consigo un desarrollo exponencial de la Inteligencia Artificial, que en poco tiempo ha pasado a formar parte de la vida cotidiana de las personas. La IA está presente en incontables aspectos y ha servido para hacer más fácil nuestro día a día.

En los coches por ejemplo ha hecho importantes aportes en sistemas vitales como los frenos interbloqueo, los sistemas de inyección de combustible, los sistemas de navegación por GPS, etc; en un futuro no muy lejano la IA permitirá que los vehículos autónomos que hoy prueba Google sean una realidad.

El impresionante desarrollo de los dispositivos móviles inteligentes vivido en las dos últimas décadas ha sido posible también gracias a los aportes de la IA: los asistentes de voz, los navegadores, o las aplicaciones móviles, son algunas de las pruebas inequívocas de ello.

Los filtros de que poseen los servicios modernos de email son otro ejemplo de la evolución y la aplicabilidad de los sistemas de IA, capaces de diferenciar un correo normal y uno no deseado (spam), así como de aprender de la experiencia del usuario y de sus preferencias. El gigante informático Google ha incorporado también la IA en una gran parte de sus servicios, entre ellos el buscador, el traductor, su asistente y en el reconocimiento de voz.

Es decir, la IAl es ya una parte integral de nuestra vida cotidiana: no se trata de los super robots que nos mostraron las películas de ciencia ficción, sino de sistemas adaptables y escalables que nos permiten hacer un poco más fácil y cómoda nuestra existencia. Podemos decir que la historia de la inteligencia artificial… acaba sólo de comenzar.

Hipernexo

Déjanos un comentario

Tu mail no será publicado. Campos obligatorios *

12 − ocho =

Artículos relacionados

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies. ACEPTAR

Aviso de cookies