ESCUELA SUPERIOR POLITÉCNICA
AGROPECUARIA DE MANABÍ
MANUEL FÉLIX LÓPEZ
CARRERA
INFORMÁTICA
SEMESTRE SEXTO PERÍODO ABR. – AGO. /2014
INTELIGENCIA
ARTIFICIAL I
TEMA
1:
INTRODUCCIÓN A LA IA. FUNDAMENTOS
DE LA INTELIGENCIA ARTIFICIAL
AUTORA:
FACILITADORA:
ING.
HIRAIDA SANTANA
INTRODUCCIÓN
La
inteligencia artificial tiene varios fundamentos como la filosofía, economía,
neurociencia, matemática, etc., cada una de ellas ha aportado al desarrollo de
la IA.
La
IA viene siendo estudiada indirectamente desde hace siglos, y en la actualidad
es la unión de diferentes ramas, y el objetivo fundamental es el estudio del
razonamiento, cómo funciona el cerebro humano, etc.
FUNDAMENTOS
DE LA INTELIGENCIA ARTIFICIAL
Filosofía (desde el año 428 a.C.
hasta el presente)
Aristóteles
(384-322 a.C.) fue el primero en formular un conjunto preciso de leyes que gobernaban
la parte racional de la inteligencia. Él desarrolló un sistema informal para razonar
adecuadamente con silogismos, que en principio permitía extraer conclusiones mecánicamente,
a partir de premisas iniciales. Ramón Lull (d. 1315) tuvo la idea de que el
razonamiento útil se podría obtener por medios artificiales. Thomas Hobbes
(1588-1679) propuso que el razonamiento era como la computación numérica, de
forma que «nosotros sumamos y restamos silenciosamente en nuestros
pensamientos». La primera máquina calculadora conocida se construyó alrededor
de 1623 por el científico alemán Wilhelm Schickard (1592-1635), aunque la
Pascalina, construida en 1642 por Blaise Pascal (1623-1662), sea más famosa.
Pascal escribió que «la máquina aritmética produce efectos que parecen más
similares a los pensamientos que a las acciones animales». Gottfried Wilhelm
Leibniz (1646-1716) construyó un dispositivo mecánico con el objetivo de llevar
a cabo operaciones sobre conceptos en lugar de sobre números, pero su campo de
acción era muy limitado.
René
Descartes (1596-1650) proporciona la primera discusión clara sobre la
distinción entre la mente y la materia y los problemas que surgen. Uno de los
problemas de una concepción puramente física de la mente es que parece dejar
poco margen de maniobra al libre albedrío: si el pensamiento está totalmente
gobernado por leyes físicas, entonces una piedra podría «decidir» caer en
dirección al centro de la Tierra gracias a su libre albedrío. A pesar de ser
denodado defensor de la capacidad de razonamiento, Descartes fue un defensor
del dualismo. Sostenía que existe una parte de la mente (o del alma o del
espíritu) que está al margen de la naturaleza, exenta de la influencia de las
leyes físicas. Los animales, por el contrario, no poseen esta cualidad dual; a
ellos se le podría concebir como si se tratasen de máquinas. Una alternativa al
dualismo es el materialismo, que considera que las operaciones del cerebro
realizadas de acuerdo a las leyes de la física constituyen la mente. El libre
albedrío es simplemente la forma en la que la percepción de las opciones
disponibles aparecen en el proceso de selección.
Este
asunto es vital para la IA, ya que la inteligencia requiere tanto acción como
razonamiento. Más aún, simplemente con comprender cómo se justifican
determinadas acciones se puede llegar a saber cómo construir un agente cuyas acciones
sean justificables (o racionales). Aristóteles argumenta que las acciones se
pueden justificar por la conexión lógica entre los objetivos y el conocimiento
de los efectos de las acciones,
El
algoritmo de Aristóteles se implementó 2.300 años más tarde por Newell y Simón con
la ayuda de su programa SRGP «Sistema de
Resolución General de Problemas».
El cual se conoce como sistema de planificación regresivo.
Matemáticas (aproximadamente
desde el año 800 al presente)
Los
filósofos delimitaron las ideas más importantes de la IA, pero para pasar de
ahí a una ciencia formal es necesario contar con una formulación matemática en
tres áreas fundamentales: lógica, computación y probabilidad.
El
concepto de lógica formal se remonta a los filósofos de la antigua Grecia, pero
su desarrollo matemático comenzó realmente con el trabajo de George Boole
(1815-1864) que definió la lógica proposicional o Booleana (Boole, 1847). En
1879, Gottlob Frege (1848-1925) extendió la lógica de Boole para incluir
objetos y relaciones, y creó la lógica de primer orden que se utiliza hoy como
el sistema más básico de representación de conocimiento. Alfred Tarski
(1902-1983) introdujo una teoría de referencia que enseña cómo relacionar
objetos de una lógica con objetos del mundo real. El paso siguiente consistió
en definir los límites de lo que se podía hacer con la lógica y la informática.
Se
piensa que el primer algoritmo no trivial es el algoritmo Euclídeo para el
cálculo del máximo común divisor. El considerar los algoritmos como objetos en
sí mismos se remonta a la época de al-Khowarazmi, un matemático persa del siglo
ix, con cuyos escritos también se introdujeron los números arábigos y el
álgebra en Europa. Boole, entre otros, presentó algoritmos para llevar a cabo
deducciones lógicas y hacia el final del siglo xix se llevaron a cabo numerosos
esfuerzos para formalizar el razonamiento matemático general con la lógica
deductiva. En 1900, David Hilbert (1862-1943) presentó una lista de 23
problemas, en el último de ellos se preguntaba si existe un algoritmo que permita
determinar la validez de cualquier proposición lógica en la que aparezcan
números naturales. Básicamente, lo que Hilbert se preguntaba es si hay límites
fundamentales en la capacidad de los procedimientos efectivos de demostración.
En 1930, Kurt Godel (1906-1978) demostró que existe un procedimiento eficiente
para demostrar cualquier aseveración verdadera en la lógica de primer orden de
Frege y Russell, sin embargo con la lógica de primer orden no era posible
capturar el principio de inducción matemática necesario para la caracterización
de los números naturales. En 1931, demostró que, en efecto, existen límites
reales. Mediante su teorema de incompletitud demostró que en cualquier lenguaje
que tuviera la capacidad suficiente para expresar las propiedades de los
números naturales, existen aseveraciones verdaderas no decidible en el sentido
de que no es posible decidir su validez mediante ningún algoritmo.
El
resultado fundamental anterior se puede interpretar también como la indicación de
que existen algunas funciones de los números enteros que no se pueden
representar mediante un algoritmo, es decir no se pueden calcular. Lo anterior
llevó a Alan Turing (1912-1954) a tratar de caracterizar exactamente aquellas
funciones que sí eran susceptibles de ser caracterizadas. La noción anterior es
de hecho problemática hasta cierto punto, porque no es posible dar una
definición formal a la noción de cálculo o procedimiento efectivo. Turing
también demostró que existen algunas funciones que no se pueden calcular
mediante la máquina de Turing. Por ejemplo, ninguna máquina puede decidir en
general si un programa dado producirá una respuesta a partir de unas entradas,
o si seguirá calculando indefinidamente.
Si
bien ser no decidible ni computable son importantes para comprender el proceso del
cálculo, la noción de intratabilidad tuvo repercusiones más importantes. En
términos generales se dice que un problema es intratable si el tiempo necesario
para la resolución de casos particulares de dicho problema crece
exponencialmente con el tamaño de dichos casos. Es importante porque un
crecimiento exponencial implica la imposibilidad de resolver casos
moderadamente grandes en un tiempo razonable. Por tanto, se debe optar por
dividir el problema de la generación de una conducta inteligente en
subproblemas que sean tratables en vez de manejar problemas intratables.
Steven
Cook (1971) y Richard Karp (1972) demostraron la existencia de grandes clases de
problemas de razonamiento y búsqueda combinatoria canónica que son NP completos.
Toda clase de problema a la que la clase de problemas NP completos se pueda
reducir será seguramente intratable.
Recientemente
la IA ha ayudado a explicar por qué algunos ejemplos de problemas NP completos
son difíciles de resolver y otros son fáciles.
Además
de la lógica y el cálculo, la tercera gran contribución de las matemáticas a la
IA es la teoría de la probabilidad. El italiano Gerolamo Cardano (1501-1576)
fue el primero en proponer la idea de probabilidad, presentándola en términos
de los resultados de juegos de apuesta. La probabilidad se convirtió pronto en
parte imprescindible de las ciencias cuantitativas, ayudando en el tratamiento
de mediciones con incertidumbre y de teorías incompletas. Pierre Fermat
(1601-1665), Blaise Pascal (1623-1662), James Bernoulli (1654-1705), Pierre
Laplace (1749-1827), entre otros, hicieron avanzar esta teoría e introdujeron
nuevos métodos estadísticos. Thomas Bayes (1702-1761) propuso una regla para la
actualización de probabilidades subjetivas a la luz de nuevas evidencias. La regla
de Bayes y el área resultante llamado análisis Bayesiano conforman la base de
las propuestas más modernas que abordan el razonamiento incierto en sistemas de
IA.
Economía (desde el año 1776 hasta
el presente)
La
mayor parte de la gente cree que la economía sólo se trata de dinero, pero los
economistas dicen que ellos realmente estudian cómo la gente toma decisiones
que les llevan a obtener los beneficios esperados. La teoría de la decisión,
que combina la teoría de la probabilidad con la teoría de la utilidad,
proporciona un marco completo y formal para la toma de decisiones (económicas o
de otra índole) realizadas bajo incertidumbre, esto es, en casos en los que las
descripciones probabilísticas capturan adecuadamente la forma en la que se
toman las decisiones en el entorno; lo cual es adecuado para «grandes»
economías en las que cada agente no necesita prestar atención a las acciones
que lleven a cabo el resto de los agentes individualmente. Cuando se trata de
«pequeñas» economías, la situación se asemeja más a la de un juego; las
acciones de un jugador pueden afectar significativamente a la utilidad de otro
(tanto positiva como negativamente). Los desarrollos de von Neumann y
Morgenstern a partir de la teoría de juegos mostraban el hecho sorprendente de que, en
algunos juegos, un agente racional debía actuar de forma aleatoria o, al menos,
aleatoria en apariencia con respecto a sus contrincantes.
El
trabajo en la economía y la investigación operativa ha contribuido en gran
medida a la noción de agente racional que aquí se presenta, aunque durante
muchos años la investigación en el campo de la IA se ha desarrollado por sendas
separadas. Una razón fue la complejidad aparente que trae consigo el tomar
decisiones racionales.
Neurociencia (desde el año 1861
hasta el presente)
La
Neurotioicia es el estudio del sistema neurológico, y en especial del cerebro.
La forma exacta en la que en un cerebro se genera el pensamiento es uno de los
grandes misterios de la ciencia. Se ha observado durante miles de años que el
cerebro está de alguna manera involucrado en los procesos de pensamiento, ya
que fuertes golpes en la cabeza pueden ocasionar minusvalía mental. También es
ampliamente conocido que los cerebros humanos son de alguna manera diferentes.
El
estudio de Paul Broca (1824-1880) sobre la afasia (dificultad para hablar) en pacientes
con el cerebro dañado, en 1861, le dio fuerza a este campo y convenció a la sociedad
médica de la existencia de áreas localizadas en el cerebro responsables de
funciones cognitivas específicas.
Cerebros
y computadores digitales realizan tareas bastante diferentes y tienen
propiedades distintas. La ley de Moore predice que el número de puertas lógicas
de la UCP se igualará con el de neuronas del cerebro alrededor del año 2020.
Por supuesto, poco se puede inferir de esta predicción; más aún, la diferencia
en la capacidad de almacenamiento es insignificante comparada con las
diferencias en la velocidad de intercambio y en paralelismo. Los circuitos de los
computadores pueden ejecutar una instrucción en un nanosegundo, mientras que las
neuronas son millones de veces más lentas. Las neuronas y las sinapsis del
cerebro están activas simultáneamente, mientras que los computadores actuales
tienen una o como mucho varias UCP. Por tanto, incluso sabiendo que un
computador es un millón de veces más rápido en cuanto a su velocidad de
intercambio, el cerebro acaba siendo 100.000 veces más rápido en lo que hace.
Psicología (desde el año 1879
hasta el presente)
La
psicología científica se inició con los trabajos del físico alemán Hermann von
Helmholtz (1821-1894), y su discípulo Wilhelm Wundt (1832-1920). Helmholtz
aplicó el método científico al estudio de la vista humana, y su obra Handbook
of Physiological Optics. En 1879, Wundt abrió el primer laboratorio de
psicología experimental en la Universidad de Leipzig. Wundt puso mucho énfasis
en la realización de experimentos controlados cuidadosamente en la que sus
operarios realizaban tareas de percepción o asociación al tiempo que sometían a
introspección sus procesos mentales. Los meticulosos controles evolucionaron
durante un largo período de tiempo hasta convertir la psicología en una
ciencia, pero la naturaleza subjetiva de los datos hizo poco probable que un
investigador pudiera contradecir sus propias teorías. El movimiento conductista,
liderado por John Watson (1878-1958) aplicó este punto de vista a los humanos,
rechazando cualquier teoría en la que intervinieran procesos mentales,
argumentando que la introspección no aportaba una evidencia fiable. Los
conductistas insistieron en el estudio exclusivo de mediciones objetivas de
percepciones (o estímulos) sobre animales y de las acciones resultantes (o
respuestas).
Kenneth
Craik (1943), establece tres elementos clave que hay que tener en cuenta para
diseñar un agente basado en conocimiento: (1) el estímulo deberá ser traducido
a una representación interna, (2) esta representación se debe manipular
mediante procesos cognitivos para así generar nuevas representaciones internas,
y (3) éstas, a su vez, se traducirán de nuevo en acciones.
Los
psicólogos comparten en la actualidad el punto de vista común de que «la teoría
cognitiva debe ser como un programa de computadora, o dicho de otra forma, debe
describir un mecanismo de procesamiento de información detallado, lo cual lleva
consigo la implementación de algunas funciones cognitivas.
Ingeniería computacional (desde
el año 1940 hasta el presente)
Para
que la inteligencia artificial pueda llegar a ser una realidad se necesitan dos
cosas: inteligencia y un artefacto. El computador ha sido el artefacto elegido.
El computador electrónico digital moderno se inventó de manera independiente y
casi simultánea por científicos en tres países involucrados en la Segunda
Guerra Mundial. El equipo de Alan Turing construyó, en 1940, el primer
computador operacional de carácter electromecánico, llamado Heath Robinson, con
un único propósito: descifrar mensajes alemanes. En 1943 el mismo grupo
desarrolló el Colossus, una máquina potente de propósito general basada en
válvulas de vacío. El primer computador operacional programable fue el Z-3,
inventado por Konrad Zuse en Alemania, en 1941. Zuse también inventó los
números de coma flotante y el primer lenguaje de programación de alto nivel,
Plankalkúl. El primer computador electrónico, el ABC, fue creado por John
Atanasoff junto a su discípulo Clifford Beny entre 1940 y 1942 en la
Universidad Estatal de Iowa. Las investigaciones de Atanasoff recibieron poco
apoyo y reconocimiento; el ENIAC, desarrollado en el marco de un proyecto
militar secreto, en la Universidad de Pensilvania, por un equipo en el que
trabajaban entre otros John Mauchly y John Eckert, puede considerarse como el
precursor de los computadores modernos.
Por
supuesto que antes de la aparición de los computadores ya había dispositivos de
cálculo. Las primeras máquinas automáticas, que datan del siglo XVII. La
primera máquina programable fue un telar, desarrollado en 1805 por Joseph Marie
Jacquard (1752-1834) que utilizaba tarjetas perforadas para almacenar información
sobre los patrones de los bordados. A mediados del siglo XIX, Charles Babbage
(1792-1871) diseñó dos máquinas, La «Máquina de Diferencias», se concibió con
la intención de facilitar los cálculos de tablas matemáticas para proyectos
científicos y de ingeniería. Finalmente se construyó y se presentó en 1991 en
el Museo de la Ciencia de Londres. La «Máquina Analítica» de Babbage era mucho
más ambiciosa: incluía memoria direccionable, programas almacenados y saltos
condicionales; fue el primer artefacto dotado de los elementos necesarios para
realizar una computación universal.
La
IA también tiene una deuda con la parte software de la informática que ha
proporcionado los sistemas operativos, los lenguajes de programación, y las
herramientas necesarias para escribir programas. Sin embargo, en este área la
deuda se ha saldado: la investigación en IA ha generado numerosas ideas
novedosas de las que se ha beneficiado la informática en general, como por
ejemplo el tiempo compartido, los intérpretes imperativos, los computadores
personales con interfaces gráficas y ratones, entornos de desarrollo rápido,
listas enlazadas, administración automática de memoria, y conceptos claves de
la programación simbólica, funcional, dinámica y orientada a objetos.
Teoría de control y cibernética
(desde el año 1948 hasta el presente)
Ktesibios
de Alejandría (250 a.C.) construyó la primera máquina auto controlada; un reloj
de agua con un regulador que mantenía el flujo de agua circulando por él, con
un ritmo constante y predecible. Esta invención cambió la definición de lo que
un artefacto podía hacer. Anteriormente, solamente seres vivos podían modificar
su comportamiento como respuesta a cambios en su entorno. Otros ejemplos de
sistemas de control auto regulables y retroalimentados son el motor de vapor,
creado por James Watt (1736-1819), y el termostato, inventado por Cornelis
Drebbel (1572-1633), que también inventó el submarino. La teoría matemática de
los sistemas con retroalimentación estables se desarrolló en el siglo xix.
La
teoría de control moderna, especialmente la rama conocida como control óptimo estocástico,
tiene como objetivo el diseño de sistemas que maximizan una fundón objetivo en
el tiempo. Lo cual se asemeja ligeramente a nuestra visión de lo que es la IA: diseño
de sistemas que se comportan de forma óptima. El cálculo y el álgebra
matricial, herramientas de la teoría de control, se utilizaron en la definición
de sistemas que se podían describir mediante conjuntos fijos de variables continuas:
más aún, el análisis exacto es sólo posible en sistemas lineales. La IA se
fundó en parte para escapar de las limitaciones matemáticas de la teoría de
control en los años 50. Las herramientas de inferencia lógica y computación
permitieron a los investigadores de IA afrontar problemas relacionados con el
lenguaje, visión y planificación, que estaban completamente fuera del punto de
mira de la teoría de control.
Lingüística (desde el año 1957
hasta el presente)
La
lingüística moderna y la IA «nacieron», al mismo tiempo y maduraron juntas,
solapándose en un campo híbrido llamado Lingüística computacional o
procesamiento del lenguaje natural. El problema del entendimiento del lenguaje
se mostró pronto mucho más complejo de lo que se había pensado en 1957. El
entendimiento del lenguaje requiere la comprensión de la materia bajo estudio y
de su contexto, y no solamente el entendimiento de la estructura de las
sentencias. Lo cual puede parecer obvio, pero no lo fue para la mayoría de la
comunidad investigadora hasta los años 60. Gran parte de los primeros trabajos
de investigación en el área de la representación del conocimiento (el estudio
de cómo representar el conocimiento de forma que el computador pueda razonar a
partir de dicha representación) estaban vinculados al lenguaje y a la búsqueda de
información en el campo del lenguaje, y su base eran las investigaciones
realizadas durante décadas en el análisis filosófico del lenguaje.
CIERRE
La
IA no es algo nuevo, lleva décadas de estudio y está en constante evolución. La
mayoría de la gente, al hablar de inteligencia artificial tiende a relacionarlo
con el mundo de la robótica y, más concretamente a los robots con formas
humanas, capaces de relacionarse pero en realidad la robótica existía mucho
antes de la inteligencia artificial, así que el desarrollo de la IA no solo es
en el campo de la robótica sino en diferentes ramas de la ciencia.
BIBLIOGRAFÍA
Russell,
S, y Norving P. 2004. Inteligencia
Artificial Un Enfoque Moderno. 2da ed.
Cap. 1. Pág. 1-33.

No hay comentarios:
Publicar un comentario