lunes, 31 de julio de 2017

GPS, SOLUCIONADOR GENERAL DE PROBLEMAS


HERBERT ALEXANDER SIMÓN.

Nace en Milwaukee el 16 de junio de 1916.
Muere en Pittsburg el 09 de Febrero de 2001.
Hijo de un ingeniero eléctrico alemán y una estadounidense de origen europeo.

1936- se gradúa de Licenciado en ciencias políticas. Se convirtió en un científico estadounidense conocido por sus aportaciones a un amplio abanico de campos, como la psicología, las matemáticas, la epistemología, la economía y la inteligencia artificial. En 1943 obtiene el doctorado de la misma área. Trabajo en su casa de estudio como asistente y en organizaciones ligadas a la gestión de organismos públicos (1936-1939). Después de su experiencia laboral volvió a la universidad como profesor auxiliar (1942-1947) y profesor titular de ciencias políticas (1947-1949), en 1949 comenzó a trabajar en Carnegie Institute of technology para enseñar administración y psicología, después en 1966 enseño ciencia de la computación y psicología  en la Carnegie-Mellon. Recibió Premio turing de la ACM en 1975, junto con Allen Newell por hacer contribuciones básicas a la inteligencia artificial, la psicología cognitiva humana y el procesamiento de listas. Para 1978 le fue concebido el Premio Nobel de Economía, ya que fue uno de los investigadores más importantes  en el terreno interdisciplinario.

Allen Newell 

Nació el 19 de Marzo de 1927 y murió el 19 de julio de 1992. Fue un investigor en informática y psicología cognitiva.  Contribuyó al lenguaje de procesamiento de información (IPL) en 1956 y a dos de los primeros programas de inteligencia  artificial, la máquina de lógica teórica en 1956 y el resultor general de problemas en 1957, con Herbert Simón.
 Recibió el premio turnig de la ACM junto con Herbert Simón en 1975 tras un esfuerzo científico de más de 20 años.

En 1957- Allen Newell y Herbert Simón crea un computador programado que denominan el  “General Problem Solver” (GPS), en español Solucionador General de Problemas, es un programa de ordenador creado con el objetivo de construir una máquina capaz de resolver problemas de carácter general. Cualquier problema simbólico formal puede ser resuelto, en principio, por el GPS. Por ejemplo: probar teoremas, resolver problemas geométricos, trabajar con lógica proposicional y jugar al ajedrez. Se basaba en el trabajo teórico previo de Simon y Newell sobre máquinas lógicas. El GPS fue el primer programa de computadora en el que se separó el conocimiento de los problemas de su estrategia sobre cómo resolverlos. Se implementó en el lenguaje de programación IPL (Information Processing Language).

El GPS consiguió resolver problemas sencillos, como el de las Torres de Hanói, que podía ser expresado de una manera lo suficientemente formalizada, pero no podía resolver los problemas del mundo real.

El usuario definía los objetos y las operaciones que se podría hacer con y sobre los objetos y el GPS generaba la heurística mediante un análisis de los medios y los objetivos, a fin de resolver los problemas. Para ello, se centraba en las operaciones disponibles, encontrando qué entradas eran aceptables, y qué resultados se generaban. Se creaban entonces sub-objetivos para conseguir aproximarse más y más a la meta anteriormente definida.
El paradigma GPS evolucionó hasta convertirse en la arquitectura simbólico-cognitiva SOAR (State Operator And Result).


 https://es.wikipedia.org/wiki/Allen_Newell
https://es.slideshare.net/uni_fcys_sistemas/sistemas-expertos-14737155
https://es.wikipedia.org/wiki/Herbert_Alexander_Simon

Romina Hernández Peña (748) 

viernes, 28 de julio de 2017

Raymond Kurzweil - Ley de Rendimientos Acelerados.

En 2001 Raymond Kurzweil en su libro “la ley de rendimientos acelerados“dio a conocer su visión sobre los mecanismos que marcarían el progreso tecnológico de la humanidad  en los próximos años. 

Esta ley es una versión modernizada de la ley de Moore , pero más allá de transistores en circuitos integrados , en cualquier rama  de la ciencias de la computación e IA , estos campos experimentan un crecimiento exponencial , las nuevas tecnologías en el campo de ingeniería de microprocesadores  y micro electrónica han dado un empuje en la  capacidad de procesamiento de cálculo de las computadoras mas allá de la capacidad humana .

Siempre que una tecnología alcance cierto tipo de barrera, según Kurzweil, se inventará una nueva tecnología para permitirnos cruzar esa barrera.

“FRAGMENTO DEL LIBRO”

Un análisis de la historia de la tecnología muestra que el cambio tecnológico es exponencial, al contrario de la visión ‘lineal intuitiva’ del sentido común. Así que no experimentaremos cien años de progreso en el siglo XXI, sino que serán más como 20.000 años de progreso (al ritmo de hoy). Los ‘rendimientos’, tales como la velocidad de los chips y la relación coste-efectividad, también se incrementarán exponencialmente. En el plazo de unas pocas décadas, la inteligencia de las máquinas sobrepasará la inteligencia humana, llevándonos a la singularidad (cambios tecnológicos tan rápidos y profundos que representen una ruptura en la estructura de la historia humana). Las consecuencias incluyen el surgimiento de inteligencia biológica y no biológica, software inmortal basado en humanos y niveles de inteligencia ultra-elevados que se expandirán hacia el universo a la velocidad de la luz.
Raymond Kurzweil



“La ley de Moore expresa que aproximadamente cada dos años se duplica el número de transistores en un microprocesador

En 1965 el Co-fundador de Intel , Gordon E. Moore , enuncia que (aproximadamente cada dos años se duplica el número de transistores en un microprocesador) , se puede extender mas allá de los transistores , cada vez que la ley se va a incumplir , al parecer una barrera tecnológica  aparece ,otra tecnología o material que permite superar dicha barrera .

Kurzweil predice que esta tendencia nos llevara a finales del siglo XXI  al Transhumanismo donde la diferencia entre  la especie humana y las maquinas será borrosa, también para el año 2050 la tecnología llegara a ser tan avanzada que los progresos en medicina permitirán alargar la vida humana.

El avance de la microelectrónica ha impulsado muchos campos de las ciencias como la Ingeniería de Sistemas ,IA ,Robótica Domótica ,etc. Muchas empresas que diseñan circuitos integrados llegan a crear transistores de 14 nm desde el año 2014 , actualmente a 7nm , en el años 2020 llegarían a los 5nm , algo extremadamente pequeño , esto concede propiedades ventajosas   al microprocesador como lo es la velocidad y menos consumo energético , al ser más pequeño el transistor los electrones recorren menos , al recorrer menos no generan fricción al no generar fricción no emiten calor , siendo muy eficientes y menos costosos , con procesadores de estas características la tecnología se impulsa cada vez mas y probablemente llegaríamos a la singularidad de kurzweil a finales del siglo XXI, con los avances en el Grafeno para construir transistores de hasta 100 GHZ.  .

La ley de Moore eventualmente llegara a no cumplirse más, al llegar a la barrera del Átomo, construir transistores a nivel atómico ya que no existe (o no se ha descubierto una partícula de menor tamaño a excepción de los quarks).

Veronica Garcia (512).

La Cibernetica por Joseph Weizenbaum

Resultado de imagen para joseph weizenbaum

Fué un profesor emérito del MIT nacido en Berlin Alemania de padres Judíos que nace el (8 de enero de 1923 considerado como uno de los padres de la Cibernetica, destacándose como uno de los grandes creadores de lenguajes de programación (Creador del lenguaje sofisticado ELIZA) que consistía en un proceso de dialogo interactivo basado en la Psicoterapia, de preguntas abiertas que conllevó a sorprender a la comunidad científica por la posibilidad de poder desarrollar Maquinas Inteligentes.
Es importante destacar que el Profesor Weizenbaum Emigra en 1936 a los Estados Unidos con su familia huyendo del régimen de Hitler donde posteriormente inicia sus estudios en matemáticas en 1941 los cuales fueron interrumpidos por el inicio de la guerra donde presto servicios en el ejercito.
Sobre los años 50 destacó sus labores sobre la computación analógica logrando crear un ordenador Digital para la Universidad de Wayne State, de aqu consolido su trabajo en 1955 trabajando para General Electric en el primer ordenador destinado a funcionar en un banco, en 1963 ingresa al Instituto Tecnológico de Massachusetts donde dos años mas tarde creó su departamento de Ciencias de la Computación.
En 1966 publicó un aparentemente simple programa llamado ELIZA que utilizaba el procesamiento del lenguaje natural para dar la sensación de cierta empatía. El programa aplicaba reglas de concordancia de patrones a las frases de los humanos para calcular sus respuestas. Weizenbaum se sorpr
endió del impacto que este programa tuvo, al tomarse en serio por mucha gente que incluso llegaban a abrirle sus corazones. Esto le hizo pensar sobre las implicaciones filosóficas de la Inteligencia Artificial y más adelante se convirtió en uno de sus más fervientes críticos.

Weizenbaum afirma: “Las computadoras y los hombres no son especies del mismo genero y por lo tanto supone una precipitada antropomorfización de la computadora la que hacen los partidarios de la IA cuando preguntan cuanta inteligencia es posible otorgarle a un ordenador”.

Weizenbaum más que un científico es un humanista por eso su preocupación se sale del marco estrecho de la ideología científica y de su racionalismo instrumental al cual ataca cuando dice: “La victoria del racionalismo, nos ha llevado a una ignorancia todavía mayor a la que hemos ganado en un nuevo conformismo que nos permite decir todo cuanto puede ser dicho en los lenguajes funcionales de la razón instrumental, pero que nos prohíbe hacer mención de lo que yo mismo llamo la verdad viva” de aquí emite el siguiente comentario
Sólo podremos limitar la aplicación indiscriminada de computadores a la replicación de lo humano si mantenemos un concepto claro de lo que es propiamente humano excluyendo así a las computadoras de aquellas áreas de la vida en las que su intervención sería inapropiada.

Fallece el 5 de marzo del año 2008 dejando grandes avances en la IA para su desarrollo y aplicación en todos los campos de investigaciones para el desarrollo de la Sociedad y Avances tecnológicos a los sers Humanos mediante el uso eficiente de los implementos computarizados.




jueves, 27 de julio de 2017

Redes Neuronales


Warren McCulloch Redes Neuronales


 
Nació en Orange, Nueva Jersey el 16 de noviembre de 1898. Hizo en Yale el pregrado en filosofía y psicología, graduándose en 1921, y estudió una maestría en psicología en la Universidad de Columbia, obteniendo el  título en 1923. Recibió su doctorado en 1927 del Colegio de Médicos y Cirujanos en Nueva York, tomando un puesto de interno en el Bellevue Hospital  antes de volver a la academia en 1934. Recordado por su trabajo con Dusser de Barenne (Yale) y, más tarde, con Walter Pitts (Universidad de Illinois), el cual proveyó los fundamentos para ciertas teorías del cerebro en un número de ensayos clásicos, incluidos Un cálculo lógico de las ideas inmanentes en la actividad nerviosa (1943). Warren McCulloch llegó a la Universidad a principios de 1942, invitó a Pitts, que estaba sin hogar, a vivir con su familia. McCulloch y Pitts trabajaban juntos. Pitts estaba familiarizado con el trabajo en informática de Gottfried Leibniz y consideraron la cuestión de si el sistema nervioso podía ser considerado un tipo de  máquina de computación universal, como la describida por Leibniz. En el artículo de 1943 demostraron que una Máquina de Turing podría ser implementada en una red finita de neuronas formales, donde la neurona es la unidad base lógica del cerebro. En el ensayo de 1947 ofrecieron aproximaciones para diseñar "redes nerviosas" para el reconocimiento de entradas visuales a pesar de los cambios de orientación o de tamaño. Desde 1952 se vinculó al Laboratorio de Investigación en Electrónica del MIT (Instituto de Tecnología de Massachusetts), trabajando principalmente en el modelamiento de redes neuronales. McCulloch fue miembro de la American Society for Cybernetics y su primer presidente desde 1967 al 1968. Muere en Cambridge en 1969. En 1943 - Teoría de las Redes Neuronales Artificiales. Walter Pitts junto a Bertran Russell y Warren McCulloch intentaron explicar el funcionamiento del cerebro humano, por medio de una red de células conectadas entre sí, para experimentar ejecutando operaciones lógicas. Partiendo del menor suceso psíquico (estimado por ellos): el impulso todo/nada, generado por una célula nerviosa. El bucle "sentidos - cerebro - músculos", mediante la retroalimentación producirían una reacción positiva si los músculos reducen la diferencia entre una condición percibida por los sentidos y un estado físico impuesto por el cerebro. También definieron la memoria como un conjunto de ondas que reverberan en un circuito cerrado de neuronas.
Entre los pioneros en el modelado de neuronas se encuentra Warren McCulloch y Walter Pitts. Estos dos investigadores propusieron un modelo matemático de neurona. En este modelo cada neurona estaba dotada de un conjunto de entradas y salidas. Cada entrada está afectada por un peso. La activación de la neurona se calcula mediante la suma de los productos de cada entrada y la salida es una función de esta activación. La principal clave de este sistema se encuentra en los pesos de las diferentes entradas. Como se ha visto, las entradas son modificadas por el peso y las salidas son función de estas modificaciones. Esto nos lleva a concluir que los pesos influyen de forma decisiva en la salida y por lo tanto pueden ser utilizados para controlar la salida que se desea.                                                             
En realidad cuando se tienen interconectadas muchas de estas neuronas artificiales lo que se hace inicialmente es entrenar el sistema. El entrenamiento consiste en aplicar unas entradas determinadas a la red y observar la salida que produce. Si la salida que produce no se adecua a la que se esperaba, se ajustan los pesos de cada neurona para interactivamente ir obteniendo las respuestas adecuadas del sistema. A la red se le somete a varios ejemplos representativos, de forma que mediante la modificación de los pesos de cada neurona, la red va "aprendiendo".
Modelo neuronal de McCulloch-Pitts
La importancia de este artículo y la influencia que ha ejercido en el campo de las redes neuronales en inconmensurable. Es un intento por explicar que es lo que hace el sistema nervioso, a partir de un conjunto de primitivos elementos de cómputo que son abstracciones de las propiedades de las neuronas y de sus conexiones, con base en el conocimiento fisiológico y psicológico que se tenía de ellas en 1943, año en que fue publicado.
En este artículo, McCulloch y Pitts toman como objeto de estudio al cómputo realizado por las neuronas; es decir; no se ocupan de los aspectos fisiológicos y morfológicos de las neuronas, a pesar de que McCulloch tiene una serie de artículos donde estudia los aspectos fisiológicos de las neuronas, sino que se abocan a estudiar las características y capacidades computacionales del modelo que proponen, caracterizándolo como un dispositivo lógico; es decir, el área en la que se desarrolla este artículo es la lógica. De esta forma, el modelo neuronal es planteado a través de un modelo matemático. Esto se puede verificar fácilmente a partir de las referencias que ocupan, las cuales todas caen dentro de la lógica matemática. Esto trae como consecuencia que el lenguaje que ocupan para las descripciones de las características de su neurona sea totalmente matemático, siguiendo un gran formalismo en sus demostraciones y con una notación poco común, lo que hace muy complejo el entender los planteamientos del artículo.

McCulloch y Pitts parten de cinco consideraciones acerca del comportamiento de las neuronas. Dichas consideraciones las plantean de la siguiente forma:

1. La actividad neuronal es un proceso "todo o nada".

2. Un cierto número fijo de sinapsis debe ser excitado dentro de un período de adición latente en orden de excitar una neurona en cualquier intervalo de tiempo, y este número es independiente de la actividad previa y la posición de la neurona.

3. El único retardo significativo dentro del sistema es el retardo sináptico.

4. La actividad de cualquier sinapsis inhibitoria previene absolutamente la excitación de la neurona en ese intervalo de tiempo.

5. La estructura de la red no cambia con el tiempo.

Estas consideraciones describen a lo que se ha conocido como la neurona "McCulloch-Pitts".

La neurona de McCulloch-Pitts es una unidad de cálculo que intenta modelar el comportamiento de una neurona "natural", similares a las que constituyen del cerebro humano. Ella es la unidad esencial con la cual se construye una red neuronal artificial.
El resultado del cálculo en una neurona consiste en realizar una suma ponderada de las entradas, seguida de la aplicación de una función no lineal, como se ilustra en la siguiente figura 

Esto se expresa matemáticamente como:
siendoː
  • es la suma ponderada.
  • x i {\displaystyle x_{i}} es el valor de la i-ésima entrada
  • w i {\displaystyle w_{i}} es el peso de la conexión entre la i-ésima entrada y la neurona.
  • θ {\displaystyle \theta } es el valor umbral
  • o es la salida de la neurona.
  • s es la función no lineal conocida como función de activación.

La función de activación que se usa esː
La suma ponderada se puede expresar de una manera más compacta usando el producto de matrices:
siendoː
 y son los vectores extendidos de pesos y de entrada, respectivamente.
También se puede simplificar la representación gráfica de la siguiente manera:
El modelo neuronal de McCulloch y Pitts de 1943, ​ fue el primer modelo neuronal moderno, y ha servido de inspiración para el desarrollo de otros modelos neuronales. Sin embargo, en muchos de los estudios en que refieren a este modelo, no se interpreta correctamente el sentido que quisieron dar originalmente McCulloch y Pitts, atribuyéndole características o funciones que no fueron descritas por sus autores, o restándole importancia a la capacidad de procesamiento del modelo. Por otro lado, el modelo McCulloch-Pitts por sí mismo está retomando importancia debido a que es uno de los pocos modelos digitales en tiempo discreto y, como para realizar implantaciones electrónicas o computacionales de las neuronas artificiales en la actualidad se utilizan sistemas digitales, con la mayoría de los modelos analógicos actuales es necesario realizar ciertas adaptaciones a los modelos al momento de implantarlos, lo que dificulta y hace imprecisa a dicha implantación con respecto al comportamiento teórico derivado del modelo.
Su mayor contribución viene de dicho modelo con el cual impulsaron el nacimiento de la Inteligencia Artificial por medio de las neuronas. Se define la neurona como un dispositivo binario con entradas y salidas. Por medio de esto, Norbert Wiener elaboró la "cibernética" y de aquí nacería la Inteligencia Artificial.
https://es.wikipedia.org/wiki/Warren_McCulloch
Carlos Javier Gonzalez B (120)



















miércoles, 26 de julio de 2017

John McCarthy Inteligencia Artificial

Resultado de imagen para john mccarthy biografiaJohn McCarthy conocido como uno de los  padres de la Inteligencia artificial, nace en Boston - Massachusetts el 4 de Septiembre de 1927. Fue el hermano mayor de do hijos concebidos en la familia. Hijo de padre Católico Irlandés y de madre judía lituana. Fue un personaje enamorado y aficionado de los libros, y de educación según el pensamiento lógico de la época. Estudio en el Instituto de Tecnología de California; graduándose como licenciado en matemáticas. En 1951 obtuvo el doctorado en la misma rama de estudio en la universidad de Princeton. Años más tarde de su doctorado, en  1952, desempeño el papel de profesor de tiempo completo en la universidad de Stanford. Tuvo varios trabajos de joven, en los que se destacan: Carpintero, pecador, organizador de eventos sindicales y por ultimo Inventor, el área donde tuvo grandes éxitos.  Durante el transcurrir de su vida, McCarthy se casó tres veces, una de sus esposas conocidas fue Vera Watson. John no apoyaba el Marxismo, pero tubo cierto interés en la política.  Muere el 24 de octubre de 2016 en Stanford California. Estados Unidos.

John incursiono en el área de investigación, fue el primero en sugerir el término de la Inteligencia Artificial, en una conferencia de Dartmouth en 1956; describió la IA como la ciencia de la ingeniería en hacer inteligentes a las maquinas,  junto a los investigadores Marvin Minsky, Nat Rochester y Claude Shannon. Investigo y describió a tal grado, la posibilidad de que una maquina fuera lo más posible humana, identifico además los diferentes tipos de albedrio que pueden existir según objetos, juegos y seres vivos. 

El tema de investigación IA, en el área computacional, fue su proyecto más destacado a lo largo de su vida. Le ocupo casi  medio siglo de su vida. Gracias a Jonh, hoy se desarrolla a gran velocidad nuevas experiencias de IA según sus hipótesis.

Contribuyo esencialmente en el desarrollo del Lenguaje LISP 1960 (Locator Identifiquer Separation Protocol). Este programa permitía generar litas estructuradas de los procesos que se debía llevar a cabo dentro de un algoritmo, con la intensión de que lo programas pueda pensar por sí solos. Un aporte intrínseco fue que sugirió públicamente la tecnología de tiempo compartido de las computadoras. Fundó el laboratorio de IA en el Instituto de Tecnología de Massachusetts

https://www.ecured.cu/John_McCarthy

Luis E. Blanco Ramos (630).

Resultado de imagen para lisp

Habitacion China


John Rogers Searle

Filósofo estadounidense nacido en Denver (Colorado) en 1932. Se doctoró en la Universidad de Oxford y es profesor de filosofía en la Universidad de California, en Berkeley. Su trabajo se centra sobre todo en el estudio del lenguaje, concretamente del habla, como un tipo de conducta especial gobernada por ciertas reglas. Es célebre por sus contribuciones a la filosofía del lenguaje, a la filosofía de la mente y de la conciencia, a las características de las realidades sociales frente a las realidades físicas, y al racionamiento practico. Le fue concedido el premio Jean Nicod en 2000 y es miembro de la Academia Europea de Ciencias y ArtesAparte de su actividad académica, el profesor Searle fue también el primer profesor en ejercicio en unirse al Free Speech Movement en la Universidad de Berkeley. Searle estudió en la Universidad de Oxford gracias a una beca Rhodes.
John Searle es muy conocido por el desarrollo de un experimento mental llamado el argumento de la "habitación china". Lo creó para demostrar que el pensamiento humano no se compone de simples procesos computacionales.
Participó en el congreso internacional sobre el diálogo ciencia-fe, celebrado en la Ciudad del Vaticano el año 2000, como parte del Jubileo de los Científicos.

En 2013 fue elegido para impartir la cátedra Profesor Alberto Magno de la Universidad de ColoniaAlemania, misma que han impartido filósofos de la talla de Arthur C. DantoJean-Luc NancyGiorgio AgambenEnrique DusselNoam Chomsky y Martha Nussbaum.

La habitación China

El argumento en contra de lo que Searle denomina inteligencia artificial fuerte es parte de una posición más amplia en lo que respecta a la relación mente-cuerpo. La tesis central de la inteligencia artificial fuerte es que los procesos realizados por una computadora son idénticos a los que realiza el cerebro, y por lo tanto se puede deducir que, si el cerebro genera consciencia, también las computadoras deben ser conscientes. Para refutar esta posición, Searle desarrolla el siguiente experimento mental.


Imaginemos que un individuo es colocado en una habitación cerrada al exterior en China. Por una rendija le son entregados papeles con símbolos chinos que desconoce absolutamente pues el individuo no conoce el idioma chino. Con unas instrucciones en inglés (o cualquiera que fuera su lengua madre) se le indica que debe sacar por la misma rendija una respuesta de acuerdo a un manual que se le ha entregado. En dicho manual sólo aparecen símbolos chinos de entrada y los correspondientes símbolos de salida. Así, el individuo puede localizar los símbolos que le son entregados y puede sacar papeles con símbolos diferentes. Los chinos que estén fuera de la habitación pensarán que el de la habitación conoce el chino pues han recibido respuestas satisfactorias. (Cfr. Test de Turing)
Searle considera que lo mismo ocurre con una computadora. Ésta manipula diferentes códigos sintácticos que nada tienen que ver con la comprensión semántica de los contenidos procesados. Evidentemente, el concepto de Intencionalidad está en el fondo del argumento de la Habitación china de Searle en contra de la inteligencia artificial.
La habitación china es un experimento mental, propuesto originalmente por John Searle y popularizado por Roger Penrose, mediante el cual se trata de rebatir la validez del Test de Turing y de la creencia de que una máquina puede llegar a pensar.
Searle se enfrenta a la analogía entre mente y ordenador cuando se trata de abordar la cuestión de la conciencia. La mente implica no sólo la manipulación de símbolos, sino que además posee una sintaxis y una semántica.

Fuentes

Cristian Rafael Aguilera Andara
(163)