viernes, 27 de octubre de 2017

Saymour Papert - Lenguaje de Programación LOGO.


 Nació el 29 de febrero de 1928 en PretoriaSudáfrica, en donde participó activamente en el movimiento anti-apartheid Seymour Papert obtuvo en 1949 el título de bachiller en la Universidad de Witwatersrand (Gauteng, Sudáfrica) y un doctorado en matemáticas tres años después, en 1952.

Es autor de numerosos artículos sobre matemáticas, inteligencia artificial, educación, aprendizaje y pensamiento. En 1985 fue uno de los fundadores del Programa de artes y ciencias de los medios, y del Laboratorio de medios del MIT; fue entonces nombrado profesor LEGO de investigación sobre el aprendizaje, cátedra ésta creada para él.

Distintos gobiernos y agencias gubernamentales de AfricaAmérica LatinaEuropa y Asia han utilizado su asesoría en metodologías educativas que se basan en tecnología. Frecuentemente participa en juntas y asociaciones educativas, en conferencias académicas y en reuniones sobre el futuro de la escuela.

Seymour Papert, matemático, pionero de la inteligencia artificial y pensador influyente sobre cómo el uso de las computadoras puede cambiar las maneras de aprendizaje. Aprincipio, la gente se burló de Papert, en la década de los sesenta, cuando planteaba que los computadores, máquinas que recién estaban en desarrollo, podían ser útiles para mejorar el aprendizaje y la creatividad de los niños. 

A pesar de las críticas, Papert estaba convencido del potencial que tenían los computadores para la educación. En su calidad de profesor en el MIT se dedicó a investigar en este ámbito, lo que dio lugar a muchas primicias.
Trabajó con Jean Piaget en la Universidad de Ginebra entre 1959 y 1963. Fue esta colaboración la que lo condujo a considerar el uso de las matemáticas para entender cómo piensan y aprenden los niños.

En 1963 Seymour Papert fue invitado a unirse al Instituto Tecnológico de Massachussets (MIT – Estados Unidos), donde junto a Marvin Minskyfundó el Instituto de Inteligencia Artificial, además de crear el Grupo de Investigación sobre el Aprendizaje y la Epistemología.

Uno de los grandes logros de Papert fue la creación, en 1967-1968, del lenguaje de programación Logo (conocido como el lenguaje de la tortuga); una potente herramienta para la enseñanza de la programación de computadores, que ayuda al pensamiento lógico-matemático. Así, Logo funciona como un instrumento didáctico que permite a los alumnos, sobre todo a los más pequeños, construir sus conocimientos.

Gracias a su trabajo y al apoyo de su grupo de investigación en el Instituto Tecnológico de Massachusetts M.I.T. hoy se puede hablar de Robótica Educativa.

Logo es un lenguaje de programación educativa, diseñada en 1967 por Wally FeurzeigSeymour Papert yCynthia Solomon. "Logo" no es un acrónimo. Fue derivado del griego logos que significa palabra o "pensamiento" por Feurzeig,  para distinguirse de otros lenguajes de programación que eran principalmente números, no los gráficos o la lógica, orientada.
Un lenguaje de propósito general, Logo es ampliamente conocido por su uso de gráficos de tortuga, en el que los comandos para el movimiento y dibujo producidos gráficos de línea, ya sea en pantalla o con un pequeño robot llamado tortuga. El lenguaje fue concebido para enseñar conceptos de la programación relacionada con Lisp y sólo más tarde para permitir lo que Papert llama " cuerpo-sintónica razonamiento", donde los estudiantes podían entender, predecir y razonar sobre el movimiento de la tortuga por imaginar lo que harían si fueran la tortuga .



Kleydis Mariagel Rincon G. (193)

martes, 1 de agosto de 2017

Marvin Minsky - Ciencias de la Computación.

Marvin Lee Minsky, nacido en Nueva York el 9 de agosto 
de 1927fallecido en Boston el 24 de enero de 2016


Marvin Lee Minsky nació en la ciudad de Nueva York, en el seno de una familia judía. Asistió a la Escuela Fieldston y a la Escuela Secundaria de Ciencias del Bronx. Más tarde asistió a la Academia Phillips en Andover, Massachusetts.
Fue un científico estadounidense. Es considerado uno de los padres de las ciencias de la computación y cofundador del laboratorio de inteligencia artificial del Instituto Tecnológico de Massachusetts (MIT).
Hasta su muerte ocupó la plaza de Profesor Toshiba de los Medios de Comunicación y las Ciencias en el MIT.

Minsky contribuyó al desarrollo de la descripción gráfica simbólica, geometría computacional, representación del conocimiento, semántica computacional, percepción mecánica, aprendizaje simbólico y conexionista.

En 1951 creó SNARC, el primer simulador de redes neuronales. Fue el inventor de las patentes del casco de realidad virtual en 1963 y del microscopio confocal en 1957.

Minsky fue consejero en la película “Una odisea del espacio” y hay referencias a él tanto en la película como en el libro.

Minsky también fue responsable de sugerir la trama de "Jurassic Park" a Michael Crichton durante un paseo por la playa de Malibú. En ese punto los dinosaurios fueron concebidos como autómatas. Más tarde Crichton hizo uso de sus conocimientos en biomedicina y concibió los dinosaurios como clones.

Minsky recibió el Premio Fundación BBVA Fronteras del Conocimiento 2013 en Tecnologías de la Información y la Comunicación. El jurado de dicho premio destacó sus trabajos sobre el aprendizaje de las máquinas, en sistemas que integran la robótica, el lenguaje, la percepción y la planificación además de la representación del conocimiento basada en marcos (frames), han conformado el campo de la Inteligencia Artificial.


Minsky tenía su propia forma de definir la inteligencia artificial, de esta manera “Es la ciencia de hacer que las máquinas hagan cosas que requerirían inteligencia si las hubiera hecho un humano”. La definición, desde luego, lleva retranca. Minsky decía que el concepto de inteligencia artificial era como el de “regiones inexploradas de África”, donde alcanzar un éxito supone caerse de la definición. Por ejemplo, cuando una máquina logra ganar al campeón del mundo de ajedrez, en vez de admitir el éxito de la máquina, sacamos al ajedrez de la definición de inteligencia y a correr. Es una trampa contra la que el científico se rebelaba.

Minsky no fue el creador de la inteligencia artificial, ese honor le cabe probablemente al gran Alan Turing, pero sí quien estableció los fundamentos de esa materia, guiado por el sueño visionario de dotar a los ordenadores con la capacidad del razonamiento.
Alan Turing fue el primer científico en sentar las bases de la inteligencia artificial, pero Minsky fue capaz de desarrollar estos pilares iniciales, planteando que un mayor conocimiento del cerebro permitiría crear máquinas más inteligentes.

En el laboratorio CSAIL desarrolló invenciones como unas manos robóticas que podían manipular objetos, un escáner visual, el microscopio confocal todavía hoy empleado en ciencia o redes neuronales con capacidad para aprender.

Minsky estaba convencido de que algún día lograríamos desarrollar máquinas tan inteligentes como nuestro cerebro. Pero en los años posteriores, con las limitaciones presupuestarias existentes, el científico se mostró menos optimista respecto a estos hipotéticos resultados. “El tiempo que lleve dependerá del número de personas que trabajen en los problemas correctos. Ahora mismo no hay ni recursos ni investigadores suficientes”, afirmaba.
“No entiendes algo realmente si solo lo entiendes
 de una forma”, decía Minsky.
Algún día no solo las máquinas,
sino también los humanos, pensarán así.

Dato curioso sobre Marvin Minsky es que no estaba fascinado con la capacidad de calculo de las maquinas, su verdadera fascinación era la inteligencia humana, pensaba que las maquinas podían pensar igual que los humanos. Es por esto que propuso enfocar los estudios en comprender el pensamiento e inteligencia humana para poder materializar la idea de la Inteligencia Artificial.  









http://blogthinkbig.com/el-legado-de-marvin-minsky-padre-de-la-inteligencia-artificial


Cesar Geronimo Colina Flores (866).

lunes, 31 de julio de 2017

GPS, SOLUCIONADOR GENERAL DE PROBLEMAS


HERBERT ALEXANDER SIMÓN.

Nace en Milwaukee el 16 de junio de 1916.
Muere en Pittsburg el 09 de Febrero de 2001.
Hijo de un ingeniero eléctrico alemán y una estadounidense de origen europeo.

1936- se gradúa de Licenciado en ciencias políticas. Se convirtió en un científico estadounidense conocido por sus aportaciones a un amplio abanico de campos, como la psicología, las matemáticas, la epistemología, la economía y la inteligencia artificial. En 1943 obtiene el doctorado de la misma área. Trabajo en su casa de estudio como asistente y en organizaciones ligadas a la gestión de organismos públicos (1936-1939). Después de su experiencia laboral volvió a la universidad como profesor auxiliar (1942-1947) y profesor titular de ciencias políticas (1947-1949), en 1949 comenzó a trabajar en Carnegie Institute of technology para enseñar administración y psicología, después en 1966 enseño ciencia de la computación y psicología  en la Carnegie-Mellon. Recibió Premio turing de la ACM en 1975, junto con Allen Newell por hacer contribuciones básicas a la inteligencia artificial, la psicología cognitiva humana y el procesamiento de listas. Para 1978 le fue concebido el Premio Nobel de Economía, ya que fue uno de los investigadores más importantes  en el terreno interdisciplinario.

Allen Newell 

Nació el 19 de Marzo de 1927 y murió el 19 de julio de 1992. Fue un investigor en informática y psicología cognitiva.  Contribuyó al lenguaje de procesamiento de información (IPL) en 1956 y a dos de los primeros programas de inteligencia  artificial, la máquina de lógica teórica en 1956 y el resultor general de problemas en 1957, con Herbert Simón.
 Recibió el premio turnig de la ACM junto con Herbert Simón en 1975 tras un esfuerzo científico de más de 20 años.

En 1957- Allen Newell y Herbert Simón crea un computador programado que denominan el  “General Problem Solver” (GPS), en español Solucionador General de Problemas, es un programa de ordenador creado con el objetivo de construir una máquina capaz de resolver problemas de carácter general. Cualquier problema simbólico formal puede ser resuelto, en principio, por el GPS. Por ejemplo: probar teoremas, resolver problemas geométricos, trabajar con lógica proposicional y jugar al ajedrez. Se basaba en el trabajo teórico previo de Simon y Newell sobre máquinas lógicas. El GPS fue el primer programa de computadora en el que se separó el conocimiento de los problemas de su estrategia sobre cómo resolverlos. Se implementó en el lenguaje de programación IPL (Information Processing Language).

El GPS consiguió resolver problemas sencillos, como el de las Torres de Hanói, que podía ser expresado de una manera lo suficientemente formalizada, pero no podía resolver los problemas del mundo real.

El usuario definía los objetos y las operaciones que se podría hacer con y sobre los objetos y el GPS generaba la heurística mediante un análisis de los medios y los objetivos, a fin de resolver los problemas. Para ello, se centraba en las operaciones disponibles, encontrando qué entradas eran aceptables, y qué resultados se generaban. Se creaban entonces sub-objetivos para conseguir aproximarse más y más a la meta anteriormente definida.
El paradigma GPS evolucionó hasta convertirse en la arquitectura simbólico-cognitiva SOAR (State Operator And Result).


 https://es.wikipedia.org/wiki/Allen_Newell
https://es.slideshare.net/uni_fcys_sistemas/sistemas-expertos-14737155
https://es.wikipedia.org/wiki/Herbert_Alexander_Simon

Romina Hernández Peña (748) 

viernes, 28 de julio de 2017

Raymond Kurzweil - Ley de Rendimientos Acelerados.

En 2001 Raymond Kurzweil en su libro “la ley de rendimientos acelerados“dio a conocer su visión sobre los mecanismos que marcarían el progreso tecnológico de la humanidad  en los próximos años. 

Esta ley es una versión modernizada de la ley de Moore , pero más allá de transistores en circuitos integrados , en cualquier rama  de la ciencias de la computación e IA , estos campos experimentan un crecimiento exponencial , las nuevas tecnologías en el campo de ingeniería de microprocesadores  y micro electrónica han dado un empuje en la  capacidad de procesamiento de cálculo de las computadoras mas allá de la capacidad humana .

Siempre que una tecnología alcance cierto tipo de barrera, según Kurzweil, se inventará una nueva tecnología para permitirnos cruzar esa barrera.

“FRAGMENTO DEL LIBRO”

Un análisis de la historia de la tecnología muestra que el cambio tecnológico es exponencial, al contrario de la visión ‘lineal intuitiva’ del sentido común. Así que no experimentaremos cien años de progreso en el siglo XXI, sino que serán más como 20.000 años de progreso (al ritmo de hoy). Los ‘rendimientos’, tales como la velocidad de los chips y la relación coste-efectividad, también se incrementarán exponencialmente. En el plazo de unas pocas décadas, la inteligencia de las máquinas sobrepasará la inteligencia humana, llevándonos a la singularidad (cambios tecnológicos tan rápidos y profundos que representen una ruptura en la estructura de la historia humana). Las consecuencias incluyen el surgimiento de inteligencia biológica y no biológica, software inmortal basado en humanos y niveles de inteligencia ultra-elevados que se expandirán hacia el universo a la velocidad de la luz.
Raymond Kurzweil



“La ley de Moore expresa que aproximadamente cada dos años se duplica el número de transistores en un microprocesador

En 1965 el Co-fundador de Intel , Gordon E. Moore , enuncia que (aproximadamente cada dos años se duplica el número de transistores en un microprocesador) , se puede extender mas allá de los transistores , cada vez que la ley se va a incumplir , al parecer una barrera tecnológica  aparece ,otra tecnología o material que permite superar dicha barrera .

Kurzweil predice que esta tendencia nos llevara a finales del siglo XXI  al Transhumanismo donde la diferencia entre  la especie humana y las maquinas será borrosa, también para el año 2050 la tecnología llegara a ser tan avanzada que los progresos en medicina permitirán alargar la vida humana.

El avance de la microelectrónica ha impulsado muchos campos de las ciencias como la Ingeniería de Sistemas ,IA ,Robótica Domótica ,etc. Muchas empresas que diseñan circuitos integrados llegan a crear transistores de 14 nm desde el año 2014 , actualmente a 7nm , en el años 2020 llegarían a los 5nm , algo extremadamente pequeño , esto concede propiedades ventajosas   al microprocesador como lo es la velocidad y menos consumo energético , al ser más pequeño el transistor los electrones recorren menos , al recorrer menos no generan fricción al no generar fricción no emiten calor , siendo muy eficientes y menos costosos , con procesadores de estas características la tecnología se impulsa cada vez mas y probablemente llegaríamos a la singularidad de kurzweil a finales del siglo XXI, con los avances en el Grafeno para construir transistores de hasta 100 GHZ.  .

La ley de Moore eventualmente llegara a no cumplirse más, al llegar a la barrera del Átomo, construir transistores a nivel atómico ya que no existe (o no se ha descubierto una partícula de menor tamaño a excepción de los quarks).

Veronica Garcia (512).

La Cibernetica por Joseph Weizenbaum

Resultado de imagen para joseph weizenbaum

Fué un profesor emérito del MIT nacido en Berlin Alemania de padres Judíos que nace el (8 de enero de 1923 considerado como uno de los padres de la Cibernetica, destacándose como uno de los grandes creadores de lenguajes de programación (Creador del lenguaje sofisticado ELIZA) que consistía en un proceso de dialogo interactivo basado en la Psicoterapia, de preguntas abiertas que conllevó a sorprender a la comunidad científica por la posibilidad de poder desarrollar Maquinas Inteligentes.
Es importante destacar que el Profesor Weizenbaum Emigra en 1936 a los Estados Unidos con su familia huyendo del régimen de Hitler donde posteriormente inicia sus estudios en matemáticas en 1941 los cuales fueron interrumpidos por el inicio de la guerra donde presto servicios en el ejercito.
Sobre los años 50 destacó sus labores sobre la computación analógica logrando crear un ordenador Digital para la Universidad de Wayne State, de aqu consolido su trabajo en 1955 trabajando para General Electric en el primer ordenador destinado a funcionar en un banco, en 1963 ingresa al Instituto Tecnológico de Massachusetts donde dos años mas tarde creó su departamento de Ciencias de la Computación.
En 1966 publicó un aparentemente simple programa llamado ELIZA que utilizaba el procesamiento del lenguaje natural para dar la sensación de cierta empatía. El programa aplicaba reglas de concordancia de patrones a las frases de los humanos para calcular sus respuestas. Weizenbaum se sorpr
endió del impacto que este programa tuvo, al tomarse en serio por mucha gente que incluso llegaban a abrirle sus corazones. Esto le hizo pensar sobre las implicaciones filosóficas de la Inteligencia Artificial y más adelante se convirtió en uno de sus más fervientes críticos.

Weizenbaum afirma: “Las computadoras y los hombres no son especies del mismo genero y por lo tanto supone una precipitada antropomorfización de la computadora la que hacen los partidarios de la IA cuando preguntan cuanta inteligencia es posible otorgarle a un ordenador”.

Weizenbaum más que un científico es un humanista por eso su preocupación se sale del marco estrecho de la ideología científica y de su racionalismo instrumental al cual ataca cuando dice: “La victoria del racionalismo, nos ha llevado a una ignorancia todavía mayor a la que hemos ganado en un nuevo conformismo que nos permite decir todo cuanto puede ser dicho en los lenguajes funcionales de la razón instrumental, pero que nos prohíbe hacer mención de lo que yo mismo llamo la verdad viva” de aquí emite el siguiente comentario
Sólo podremos limitar la aplicación indiscriminada de computadores a la replicación de lo humano si mantenemos un concepto claro de lo que es propiamente humano excluyendo así a las computadoras de aquellas áreas de la vida en las que su intervención sería inapropiada.

Fallece el 5 de marzo del año 2008 dejando grandes avances en la IA para su desarrollo y aplicación en todos los campos de investigaciones para el desarrollo de la Sociedad y Avances tecnológicos a los sers Humanos mediante el uso eficiente de los implementos computarizados.




jueves, 27 de julio de 2017

Redes Neuronales


Warren McCulloch Redes Neuronales


 
Nació en Orange, Nueva Jersey el 16 de noviembre de 1898. Hizo en Yale el pregrado en filosofía y psicología, graduándose en 1921, y estudió una maestría en psicología en la Universidad de Columbia, obteniendo el  título en 1923. Recibió su doctorado en 1927 del Colegio de Médicos y Cirujanos en Nueva York, tomando un puesto de interno en el Bellevue Hospital  antes de volver a la academia en 1934. Recordado por su trabajo con Dusser de Barenne (Yale) y, más tarde, con Walter Pitts (Universidad de Illinois), el cual proveyó los fundamentos para ciertas teorías del cerebro en un número de ensayos clásicos, incluidos Un cálculo lógico de las ideas inmanentes en la actividad nerviosa (1943). Warren McCulloch llegó a la Universidad a principios de 1942, invitó a Pitts, que estaba sin hogar, a vivir con su familia. McCulloch y Pitts trabajaban juntos. Pitts estaba familiarizado con el trabajo en informática de Gottfried Leibniz y consideraron la cuestión de si el sistema nervioso podía ser considerado un tipo de  máquina de computación universal, como la describida por Leibniz. En el artículo de 1943 demostraron que una Máquina de Turing podría ser implementada en una red finita de neuronas formales, donde la neurona es la unidad base lógica del cerebro. En el ensayo de 1947 ofrecieron aproximaciones para diseñar "redes nerviosas" para el reconocimiento de entradas visuales a pesar de los cambios de orientación o de tamaño. Desde 1952 se vinculó al Laboratorio de Investigación en Electrónica del MIT (Instituto de Tecnología de Massachusetts), trabajando principalmente en el modelamiento de redes neuronales. McCulloch fue miembro de la American Society for Cybernetics y su primer presidente desde 1967 al 1968. Muere en Cambridge en 1969. En 1943 - Teoría de las Redes Neuronales Artificiales. Walter Pitts junto a Bertran Russell y Warren McCulloch intentaron explicar el funcionamiento del cerebro humano, por medio de una red de células conectadas entre sí, para experimentar ejecutando operaciones lógicas. Partiendo del menor suceso psíquico (estimado por ellos): el impulso todo/nada, generado por una célula nerviosa. El bucle "sentidos - cerebro - músculos", mediante la retroalimentación producirían una reacción positiva si los músculos reducen la diferencia entre una condición percibida por los sentidos y un estado físico impuesto por el cerebro. También definieron la memoria como un conjunto de ondas que reverberan en un circuito cerrado de neuronas.
Entre los pioneros en el modelado de neuronas se encuentra Warren McCulloch y Walter Pitts. Estos dos investigadores propusieron un modelo matemático de neurona. En este modelo cada neurona estaba dotada de un conjunto de entradas y salidas. Cada entrada está afectada por un peso. La activación de la neurona se calcula mediante la suma de los productos de cada entrada y la salida es una función de esta activación. La principal clave de este sistema se encuentra en los pesos de las diferentes entradas. Como se ha visto, las entradas son modificadas por el peso y las salidas son función de estas modificaciones. Esto nos lleva a concluir que los pesos influyen de forma decisiva en la salida y por lo tanto pueden ser utilizados para controlar la salida que se desea.                                                             
En realidad cuando se tienen interconectadas muchas de estas neuronas artificiales lo que se hace inicialmente es entrenar el sistema. El entrenamiento consiste en aplicar unas entradas determinadas a la red y observar la salida que produce. Si la salida que produce no se adecua a la que se esperaba, se ajustan los pesos de cada neurona para interactivamente ir obteniendo las respuestas adecuadas del sistema. A la red se le somete a varios ejemplos representativos, de forma que mediante la modificación de los pesos de cada neurona, la red va "aprendiendo".
Modelo neuronal de McCulloch-Pitts
La importancia de este artículo y la influencia que ha ejercido en el campo de las redes neuronales en inconmensurable. Es un intento por explicar que es lo que hace el sistema nervioso, a partir de un conjunto de primitivos elementos de cómputo que son abstracciones de las propiedades de las neuronas y de sus conexiones, con base en el conocimiento fisiológico y psicológico que se tenía de ellas en 1943, año en que fue publicado.
En este artículo, McCulloch y Pitts toman como objeto de estudio al cómputo realizado por las neuronas; es decir; no se ocupan de los aspectos fisiológicos y morfológicos de las neuronas, a pesar de que McCulloch tiene una serie de artículos donde estudia los aspectos fisiológicos de las neuronas, sino que se abocan a estudiar las características y capacidades computacionales del modelo que proponen, caracterizándolo como un dispositivo lógico; es decir, el área en la que se desarrolla este artículo es la lógica. De esta forma, el modelo neuronal es planteado a través de un modelo matemático. Esto se puede verificar fácilmente a partir de las referencias que ocupan, las cuales todas caen dentro de la lógica matemática. Esto trae como consecuencia que el lenguaje que ocupan para las descripciones de las características de su neurona sea totalmente matemático, siguiendo un gran formalismo en sus demostraciones y con una notación poco común, lo que hace muy complejo el entender los planteamientos del artículo.

McCulloch y Pitts parten de cinco consideraciones acerca del comportamiento de las neuronas. Dichas consideraciones las plantean de la siguiente forma:

1. La actividad neuronal es un proceso "todo o nada".

2. Un cierto número fijo de sinapsis debe ser excitado dentro de un período de adición latente en orden de excitar una neurona en cualquier intervalo de tiempo, y este número es independiente de la actividad previa y la posición de la neurona.

3. El único retardo significativo dentro del sistema es el retardo sináptico.

4. La actividad de cualquier sinapsis inhibitoria previene absolutamente la excitación de la neurona en ese intervalo de tiempo.

5. La estructura de la red no cambia con el tiempo.

Estas consideraciones describen a lo que se ha conocido como la neurona "McCulloch-Pitts".

La neurona de McCulloch-Pitts es una unidad de cálculo que intenta modelar el comportamiento de una neurona "natural", similares a las que constituyen del cerebro humano. Ella es la unidad esencial con la cual se construye una red neuronal artificial.
El resultado del cálculo en una neurona consiste en realizar una suma ponderada de las entradas, seguida de la aplicación de una función no lineal, como se ilustra en la siguiente figura 

Esto se expresa matemáticamente como:
siendoː
  • es la suma ponderada.
  • x i {\displaystyle x_{i}} es el valor de la i-ésima entrada
  • w i {\displaystyle w_{i}} es el peso de la conexión entre la i-ésima entrada y la neurona.
  • θ {\displaystyle \theta } es el valor umbral
  • o es la salida de la neurona.
  • s es la función no lineal conocida como función de activación.

La función de activación que se usa esː
La suma ponderada se puede expresar de una manera más compacta usando el producto de matrices:
siendoː
 y son los vectores extendidos de pesos y de entrada, respectivamente.
También se puede simplificar la representación gráfica de la siguiente manera:
El modelo neuronal de McCulloch y Pitts de 1943, ​ fue el primer modelo neuronal moderno, y ha servido de inspiración para el desarrollo de otros modelos neuronales. Sin embargo, en muchos de los estudios en que refieren a este modelo, no se interpreta correctamente el sentido que quisieron dar originalmente McCulloch y Pitts, atribuyéndole características o funciones que no fueron descritas por sus autores, o restándole importancia a la capacidad de procesamiento del modelo. Por otro lado, el modelo McCulloch-Pitts por sí mismo está retomando importancia debido a que es uno de los pocos modelos digitales en tiempo discreto y, como para realizar implantaciones electrónicas o computacionales de las neuronas artificiales en la actualidad se utilizan sistemas digitales, con la mayoría de los modelos analógicos actuales es necesario realizar ciertas adaptaciones a los modelos al momento de implantarlos, lo que dificulta y hace imprecisa a dicha implantación con respecto al comportamiento teórico derivado del modelo.
Su mayor contribución viene de dicho modelo con el cual impulsaron el nacimiento de la Inteligencia Artificial por medio de las neuronas. Se define la neurona como un dispositivo binario con entradas y salidas. Por medio de esto, Norbert Wiener elaboró la "cibernética" y de aquí nacería la Inteligencia Artificial.
https://es.wikipedia.org/wiki/Warren_McCulloch
Carlos Javier Gonzalez B (120)



















miércoles, 26 de julio de 2017

John McCarthy Inteligencia Artificial

Resultado de imagen para john mccarthy biografiaJohn McCarthy conocido como uno de los  padres de la Inteligencia artificial, nace en Boston - Massachusetts el 4 de Septiembre de 1927. Fue el hermano mayor de do hijos concebidos en la familia. Hijo de padre Católico Irlandés y de madre judía lituana. Fue un personaje enamorado y aficionado de los libros, y de educación según el pensamiento lógico de la época. Estudio en el Instituto de Tecnología de California; graduándose como licenciado en matemáticas. En 1951 obtuvo el doctorado en la misma rama de estudio en la universidad de Princeton. Años más tarde de su doctorado, en  1952, desempeño el papel de profesor de tiempo completo en la universidad de Stanford. Tuvo varios trabajos de joven, en los que se destacan: Carpintero, pecador, organizador de eventos sindicales y por ultimo Inventor, el área donde tuvo grandes éxitos.  Durante el transcurrir de su vida, McCarthy se casó tres veces, una de sus esposas conocidas fue Vera Watson. John no apoyaba el Marxismo, pero tubo cierto interés en la política.  Muere el 24 de octubre de 2016 en Stanford California. Estados Unidos.

John incursiono en el área de investigación, fue el primero en sugerir el término de la Inteligencia Artificial, en una conferencia de Dartmouth en 1956; describió la IA como la ciencia de la ingeniería en hacer inteligentes a las maquinas,  junto a los investigadores Marvin Minsky, Nat Rochester y Claude Shannon. Investigo y describió a tal grado, la posibilidad de que una maquina fuera lo más posible humana, identifico además los diferentes tipos de albedrio que pueden existir según objetos, juegos y seres vivos. 

El tema de investigación IA, en el área computacional, fue su proyecto más destacado a lo largo de su vida. Le ocupo casi  medio siglo de su vida. Gracias a Jonh, hoy se desarrolla a gran velocidad nuevas experiencias de IA según sus hipótesis.

Contribuyo esencialmente en el desarrollo del Lenguaje LISP 1960 (Locator Identifiquer Separation Protocol). Este programa permitía generar litas estructuradas de los procesos que se debía llevar a cabo dentro de un algoritmo, con la intensión de que lo programas pueda pensar por sí solos. Un aporte intrínseco fue que sugirió públicamente la tecnología de tiempo compartido de las computadoras. Fundó el laboratorio de IA en el Instituto de Tecnología de Massachusetts

https://www.ecured.cu/John_McCarthy

Luis E. Blanco Ramos (630).

Resultado de imagen para lisp