INTRODUCCION
La Inteligencia Artificial surge definitivamente a partir de algunos trabajos publicados en la década de 1940 que no tuvieron gran repercusión, pero a partir del influyente trabajo en 1950 de Alan Turing, matemático británico, se abre una nueva disciplina de las ciencias de la información. Si bien las ideas fundamentales se remontan a la lógica y algoritmos de los griegos, y a las matemáticas de los árabes, varios siglos antes de Cristo, el concepto de obtener razonamiento artificial aparece en el siglo XIV. A finales del siglo XIX se obtienen lógicas formales suficientemente poderosas y a mediados del siglo XX, se obtienen máquinas capaces de hacer uso de tales lógicas y algoritmos de solución.
Este trabajo posee tres capítulos que estarán detallando ampliamente sobre los fundamentos estas ciencias. El primer capítulo define el concepto de Inteligencia Artificial, sus características y sobre todo su aplicación en la sociedad.El segundo capítulo se detalla todo lo referente a la robótica, su historia y la clasificación, además de la aplicación y beneficiosos de sus usos.
El tercer y último capítulo se enfoca en la realidad virtual, como se define, su origen, los personajes que dieron su inicio, elementos que lo fundamentan y sus aplicaciones en diversas ramas como la física, ingeniería, oceanografía, medicina, medios de comunicación y en las artes.
El principal objetivo de este trabajo es mantener informado a los lectores sobre los avances tecnológicos de la informático y la importancia de su conocimiento y uso.
- Definición
En ciencias de la computación se denomina inteligencia artificial (IA) a la capacidad de razonar de un agente no vivo. John McCarthy, acuñó el término en 1956, la definió: Es la ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes.
La Inteligencia Artificial es una combinación de la ciencia del computador, fisiología y filosofía, tan general y amplio como eso, es que reúne varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas que pueden pensar.
La Inteligencia Artificial trata de conseguir que los ordenadores simulen en cierta manera la inteligencia humana. Se acude a sus técnicas cuando es necesario incorporar en un sistema informático,conocimiento o características propias del ser humano.
- Historia y Evolución
La idea de algo parecido a la inteligencia artificial existe desde hace millones de años. El primer hombre primitivo que tomo conciencia de su propia existencia, y de que era capaz de pensar, seguramente se pregunto como funcionaria su pensamiento y posteriormentellegaría a la idea de un “creador superior”. Por lo tanto, la idea de que un ser inteligente cree a otro, la idea de un diseño virtual para la inteligencia, es tan remota como la toma de conciencia del ser humano.
Los juegos matemáticos antiguos, como el de la torres de hanoi (aprox 3000ac), demuestran el interés por la búsqueda de un bucle resolutor, una IA capaz de ganar en los mínimos movimientos posibles. En 1903 Lee De Forest inventa el tríodo (también llamados bulbo o válvula de vacío). Podría decirse que la primera gran máquina inteligente diseñada por el hombre fue el computador ENIAC, compuesto por 18.000 válvulas de vacío, teniendo en cuenta que el concepto de “inteligencia” es un término subjetivo que depende de la inteligencia y la tecnología que tengamos en esa época. Un indígenade las amazonas en el siglo 20 podría calificar de inteligente un tocadiscos, cuando en verdad no lo es tanto.
En 1937, el matemático inglés Alan Mathison Turing (1912-1953) publicó un artículo de bastante repercusión sobre los “Números Calculables”, que puede considerarse el origen oficial de la InformáticaTeórica. En este artículo, introdujo la Máquina de Turing, una entidad matemática abstracta que formalizó el concepto de algoritmo y resultó ser la precursora de las computadoras digitales. Con ayuda de su máquina, Turing pudo demostrar que existen problemas irresolubles, de los que ningún computador será capaz de obtener su solución, por lo que a Alan Turing se le considera el padre de la teoría de la computabilidad. También se le considera el padre de la Inteligencia Artificial, por su famosa Prueba de Turing, que permitiría comprobar si un programa de ordenador puede ser tan inteligente como un ser humano.
En 1951 William Shockley inventa el transistor de unión. El invento del transistor hizo posible una nueva generación de computadoras mucho más rápidas y pequeñas. 5 años después, se acuño el término “inteligencia artificial” en Dartmouth durante una conferencia convocada por McCarthy, a la cual asistieron, entre otros, Minsky, Newell y Simon. En esta conferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.
En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugar al auge de los sistemas expertos, pero que no alcanzó muchos de sus objetivos, por lo que este campo ha sufrido una nueva detención en los años noventa. En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agente inteligente. Al intentar describir con un mayor ámbito (no solo la comunicación) los atributos de un agente inteligente, la IA se ha extendido a muchas áreas que han creado ramas de investigaciones enormes y diferenciadas.
- Características
Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos, también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial.
- El comportamiento de los programas no es descrito explícitamente por el algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado (programa declarativo). En contraste con los programas que no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica, explícitamente, cómo encontrar las variables de salida para cualquier variable dada de entrada.
- El razonamiento basado en el conocimiento, implica que estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan. Al contrario de los programas para propósito específico, como los de contabilidad y cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el programa de razonamiento o motor de inferencia y base de conocimientos dándole la capacidad de explicar discrepancias entre ellas.
- Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es la resolución de conflictos en tareas orientadas a metas como en planificación, o el diagnóstico de tareas en un sistema del mundo real: con poca información, con una solución cercana y no necesariamente exacta.
Los atributos del agente inteligente son:
- Tiene actitudes mentales tales como creencias e intenciones
- Tiene la capacidad de obtener conocimiento, es decir, aprender.
- Puede resolver problemas, incluso particionando problemas complejos en otros más simples.
- Entiende. Posee la capacidad de crearle sentido, si es posible, a ideas ambiguas o contradictorias.
- Planifica, predice consecuencias, evalúa alternativas
- Conoce los límites de su propia habilidad y conocimientos.
- Puede distinguir a pesar de la similitud de las situaciones.
- Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando analogías.
- Puede percibir y modelar el mundo exterior.
- Puede entender y utilizar el lenguaje y sus símbolos.
Podemos entonces decir que la IA incluye características humanas tales como el aprendizaje, la adaptación, el razonamiento, la autocorrección, el mejoramiento implícito, y la percepción modelar del mundo. Así, podemos hablar ya no sólo de un objetivo, sino de muchos dependiendo del punto de vista o utilidad que pueda encontrarse a la IA.
- Como funciona
Actualmente según Delgado (1998) existen tres paradigmas en cuánto al desarrollo de la IA, que son:
Redes neuronales
A grandes rasgos, se recordará que el cerebro humano se compone de decenas de billones de neuronas interconectadas entre sí formando circuitos o redes que desarrollan funciones específicas. Una neurona típica recoge señales procedentes de otras neuronas a través de una Pléyada de delicadas estructuras llamadas dendritas. La neurona emite impulsos de actividad eléctrica a lo largo de una fina y delgada capa denominada axón, que se escinde en millares de ramificaciones.
Las extremidades de estas ramificaciones llegan hasta las dendritas de otras neuronas y establecen conexión llamada sinapsis, que transforma el impulso eléctrico en un mensaje neuroquímico mediante liberación de unas sustancias llamadas neurotransmisores que excitan o inhiben sobre la neurona, de esta manera la información se transmite de neuronas a otras y va siendo procesada a través de las conexiones sinápticas y el aprendizaje varía de acuerdo a la efectividad de la sinapsis.
Un psicólogo D Hebb (1949), introdujo dos ideas fundamentales que han influido de manera decisiva en el campo de las redes neuronales. La hipótesis de Hebb, basadas en investigaciones psicofisiológicas, presentan de manera intuitiva el modo en que las neuronas memorizan información y se plasman sintéticamente en la famosa regla de aprendizaje de Hebb (también conocida como regla de producto). Esta regla indica que las conexiones entre dos neuronas se refuerza si ambas son activadas. Muchos de los algoritmos actuales proceden de los conceptos de este psicólogo.
Widrow (1959), publica una teoría sobre la adaptación neuronal y unos modelos inspirados en esta teoría, el Adaline (Adaptative Linear Neuron) y el Madaline (Múltiple Adaline). Estos modelos fueron usados en numerosas aplicaciones y permitieron usar, por primera vez, una red neuronal en un problema importante del mundo real: filtros adaptativos que eliminan ecos en las línea telefónicas.
Hopfield (1980), elabora un modelo de red consistente en unidades de proceso interconectadas que alcanzan mínimos energéticos, aplicando los principios de estabilidad desarrollados por Grossberg. El modelo resultó muy ilustrativo sobre los mecanismos de almacenamiento y recuperación de la memoria. Su entusiasmo y claridad de presentación dieron un nuevo impulso al campo y provocó el incremento de las investigaciones.
Otros desarrollos destacables de esta década son la máquina de Boltzmann y los modelos Bam (Bi-directinal Associative Memory).
Sistemas de lógica difusa
A concepto de Delgado (1998) es la segunda herramienta que permite emular el razonamiento humano. Los seres humanos pensamos y razonamos por medio de palabras y en grados entre dos estados por ejemplo blanco y negro ó frío y caliente, etc. Estos sistemas de lógica difusa son una mejora a los sistemas experto tradicionales, en el sentido de que permiten utilizar lenguaje humano como nosotros razonamos.
Ya hablando de sistemas expertos tradicionales, estos intentan reproducir el razonamiento humano de forma simbólica. Es un tipo de programa de aplicación informática que adopta decisiones o resuelve problemas de un determinado campo, como los sistemas de producción, las finanzas o la medicina, utilizando los conocimientos y las reglas analíticas definidas por los expertos en dicho campo. Los expertos solucionan los problemas utilizando una combinación de conocimientos basados en hechos y en su capacidad de razonamiento. En los sistemas expertos, estos dos elementos básicos están contenidos en dos componentes separados, aunque relacionados: una base de conocimientos y una máquina de deducción, o de inferencia. La base de conocimientos proporciona hechos objetivos y reglas sobre el tema, mientras que la máquina de deducción proporciona la capacidad de razonamiento que permite al sistema experto extraer conclusiones. Los sistemas expertos facilitan también herramientas adicionales en forma de interfaces de usuario y los mecanismos de explicación. Las interfaces de usuario, al igual que en cualquier otra aplicación, permiten al usuario formular consultas, proporcionar información e interactuar de otras formas con el sistema. Los mecanismos de explicación, la parte más fascinante de los sistemas expertos, permiten a los sistemas explicar o justificar sus conclusiones, y también posibilitan a los programadores verificar el funcionamiento de los propios sistemas. Los sistemas expertos comenzaron a aparecer en la década de 1960. Sus campos de aplicación son la química, la geología, la medicina, la banca e inversiones y los seguros.
A experiencia de uno de los autores, el hardware en que se fundamentan estos sistemas que son circuitos integrados digitales son muy eficaces y de durabilidad de por vida si se les da correcto uso.
Algoritmos genéticos
Según Delgado (1998) son una técnica inspirada en aspectos biológicos, el proceso de la evolución del que Charles Darwin hace referencia se puede aplicar para optimizar dispositivos de control o robots o cualquier otro tipo de aspectos que sean susceptibles de ser optimizados como líneas de producción.
En general es aceptado que cualquier algoritmo genético para resolver un problema, debe tener cinco componentes básicos como se verá a continuación:
- Se necesita una codificación o representación del problema, que resulte adecuada al mismo.
- Una manera de crear una población inicial de soluciones.
- Una función de ajuste ó adaptación al problema, también llamada función de evaluación, la cual asigna un número real a cada posible solución codificada.
- Durante la ejecución del algoritmo, los padres – dos individuos pertenecientes a la población inicial, que son soluciones factibles del problema- deben ser seleccionados para la reproducción; a continuación dichos padres seleccionados se cruzarán generando dos hijos, nuevas soluciones al problema, sobre cada uno de los cuales actuará un operador de mutación de acuerdo con una cierta probabilidad. El resultado de la combinación de las anteriores funciones será un conjunto de individuos (posibles soluciones al problema), los cuales en la evolución del Algoritmo Genético formarán parte de la siguiente población.
- Aplicaciones a la sociedad
Las aplicaciones tecnológicas en las que los métodos de IA usados han demostrado con éxito que pueden resolver complicados problemas de forma masiva. En la medicina en general la inteligencia artificial ayuda a los médicos a hacer diagnósticos, supervisar la condición de los pacientes, administrar tratamientos y preparar estudios estadísticos.
Los sistemas expertos permiten almacenar y utilizar el conocimiento de uno o varios expertos humanos en un dominio de aplicación concreto. Su uso incrementa la productividad, mejora la eficiencia en la toma de de-cisiones o simplemente permite resolver problemas cuando los expertos no están presentes. Muchos son los ejemplos de sistemas expertos desarrollados.
La inteligencia artificial se ha utilizado en las siguientes ramas:
- Gestión y control: análisis inteligente, fijación de objetivos.
- Fabricación: diseño, planificación, programación, monitorización, control, gestión de proyectos, robótica simplificada y visión computarizada.
- Educación: adiestramiento práctico, exámenes y diagnóstico.
- Ingeniería: diseño, control y análisis.
- Equipamiento: diseño, diagnóstico, adiestramiento, mantenimiento, configuración, monitorización y ventas.
- Cartografía: interpretación de fotografías, diseño, resolución de problemas cartográficos.
- Profesiones: abogacía, medicina, contabilidad, geología, química.
- Software: enseñanza, especificación, diseño, verificación, mantenimiento.
- Sistemas de armamento: guerra electrónica, identificación de objetivos, control adaptativo, proceso de imágenes, proceso de señales.
- Proceso de datos: educación, interfase en lenguaje natural, acceso inteligente a datos y gestores de bases de datos, análisis inteligente de datos.
- Finanzas: planificación, análisis, consultoría.
BIOGRAFÍA DE PERSONAJES
DE INTELIGENCIA ARTIFICIAL
ALAN TURING
(23 de junio de 1912 en Maida Vale, Londres – 7 de junio de 1954 en Wilmslow, Cheshire)
Fue un matemático, lógico, científico de la computación, criptógrafo y filósofobritánico.Es considerado uno de los padres de la ciencia de la computación siendo el precursor de la informática moderna. Proporcionó una influyente formalización de los conceptos de algoritmo y computación: la máquina de Turing. Formuló su propia versión de la hoy ampliamente aceptada Tesis de Church-Turing, la cual postula que cualquier modelo computacional existente tiene las mismas capacidades algorítmicas, o un subconjunto, de las que tiene una máquina de Turing. Durante la Segunda Guerra Mundial, trabajó en descifrar los códigos nazis, particularmente los de la máquina Enigma; durante un tiempo fue el director de la sección Naval Enigma del Bletchley Park. Tras la guerra diseñó uno de los primeros computadores electrónicos programables digitales en el Laboratorio Nacional de Física del Reino Unido y poco tiempo después construyó otra de las primeras máquinas en la Universidad de Mánchester. Entre otras muchas cosas, también contribuyó de forma particular e incluso provocativa al enigma de si las máquinas pueden pensar, es decir a la Inteligencia Artificial.
La carrera de Turing terminó súbitamente cuando fue procesado por ser homosexual. No se defendió de los cargos y se le dio a escoger entre la castración química o ir a la cárcel. Eligió lo primero y sufrió importantes consecuencias físicas, entre ellas la impotencia. Dos años después del juicio, en 1954, Turing falleció debido a la ingestión de una manzana contaminada con cianuro en un contexto que indica un posible suicidio.
Definió además un método teórico para decidir si una máquina era capaz de pensar como un hombre (test de Turing) y realizó contribuciones a otras ramas de la matemática aplicada, como la aplicación de métodos analíticos y mecánicos al problema biológico de la morfogénesis.
MARVIN MINSKY
(Nueva York el 9 de agosto de 1927- )
Científico estadounidense considerado uno de los padres de las ciencias de la computación y cofundador del laboratorio de inteligencia artificial del Instituto Tecnológico de Massachusetts o MIT.
Tras acabar la secundaria se unió a la Marina de los Estados Unidos. Tras dos años de servicio entra en la Universidad de Princeton donde se graduaría en 1950. En la actualidad ocupa la plaza de Profesor Toshiba de los Medios de Comunicación y las Ciencias en el Instituto Tecnológico de Massachusetts (MIT). En 1951 creó SNARC, el primer simulador de redes neuronales.
Escribió el libro “Perceptrones” (con Seymour Papert), que se convirtió en el trabajo fundacional en el análisis de redes neuronales artificiales. Su crítica de la investigación poco rigurosa en el campo ha sido indicada como responsable de la desaparición virtual de la investigación académica en redes neuronales artificiales durante los años 70.
Minsky ha contribuido en el desarrollo de la descripción gráfica simbólica, geometría computacional, representación del conocimiento, semántica computacional, percepción mecánica, aprendizaje simbólico y conexionista.
Sus investigaciones han sido fundamentales en campos muy diversos: inteligencia artificial, psicología, óptica, matemáticas, robótica o tecnología espacial. Es además uno de los investigadores de punta en inteligencia robótica, diseñador y constructor de los primeros brazos mecánicos con sensores táctiles, escáneres visuales o simuladores de redes neuronales.
JOHN MCCARTHY
(4 de septiembre de 1927, Boston, Massachusetts),
Conocido como Tío John McCarthy. De hecho, fue el responsable de introducir el término “inteligencia artificial”, concepto que acuñó en la Conferencia de Dartmouth en 1955.En 1956, en una conferencia organizada junto a Marvin Minsky, Nat Rochester y Claude Shannon, bautizó su campo de estudio como “inteligencia artificial” (IA), aunque muchas veces ha dicho que si tuviera que bautizarlo de nuevo hubiera preferido llamarlo “inteligencia computacional.” La conferencia fue financiada por la Fundación Rockefeller y se llamó Dartmouth Summer Research Project on Artificial Intelligence.
En 1952, McCarthy le sugirió a Claude Shannon llamar al estudio de las máquinas pensantes con el nombre “estudios de autómatas,” pero al preparar en agosto de 1955 la propuesta para recabar financiación a la Fundación Rockefeller para la conferencia pensó que sería mejor un nombre con más marketing. El lenguaje que nació de las ideas de dicha conferencia fue LISP (LISt Processing language). En 1958 John McCarthy y sus colaboradores en el Instituto Tecnológico de Massachusetts crearon LISP, considerado por algunos el segundo lenguaje de programación de alto nivel (tras FORTRAN). McCarthy inventó el lenguaje de programación Lisp y publicó su diseño en Comunicaciones del ACM en 1960.
En 1961, fue el primero en sugerir públicamente (en un discurso dado para celebrar el centenario del MIT) que la tecnología de tiempo compartido de las computadoras podría conducir a un futuro en el que el poder del cómputo e incluso aplicaciones específicas podrían ser vendidas como un servicio (como el agua o la electricidad). John McCarthy ayudó a motivar la creación del Proyecto MAC en el MIT, pero en 1962 se marchó del MIT y se fue a la Universidad de Stanford, donde se dedicó a instalar el Laboratorio de IA de Stanford, que durante muchos años fue un rival amistoso del Proyecto MAC.
Recibió el Premio Turing en 1971 por sus importantes contribuciones en el campo de la Inteligencia Artificial.
- Definición
El origen etimológico de la palabra robótica lo encontramos, ni más ni menos, que en el checo. En concreto, en la unión de dos términos: robotaque puede definirse como “trabajo forzado” y en rabota que es sinónimo de “servidumbre”. De la misma forma, hay que subrayar que la primera vez que empieza a hacerse referencia más o menos a ella fue en el año 1920 en la obra del escritor KarelCapek titulada “Los robots universales de Rossum”.
La robótica es la rama de la tecnología que se dedica al diseño, construcción, operación, disposición estructural, manufactura y aplicación de los robots. La robótica combina diversas disciplinas como son: la mecánica, la electrónica, la informática, la inteligencia artificial, la ingeniería de control y la física.
- Historia
El inicio de la robótica actual puede fijarse en la industria textil del siglo XVIII, cuando Joseph Jacquard inventa en 1801 una máquina textil programable mediante tarjetas perforadas. Luego, la Revolución Industrial impulsó el desarrollo de estos agentes mecánicos. Además de esto, durante los siglos XVII y XVIII en Europa fueron construidos muñecos mecánicos muy ingeniosos que tenían algunas características de robots. Jacques de Vauncansos construyó varios músicos de tamaño humano a mediados del siglo XVIII. En 1805, Henri Maillardert construyó una muñeca mecánica que era capaz de hacer dibujos.
La palabra robot se utilizó por primera vez en 1920 en una obra llamada “Los Robots Universales de Rossum”, escrita por el dramaturgo checo KarelCapek. Su trama trataba sobre un hombre que fabricó un robot y luego este último mata al hombre. La palabra checa ‘Robota’ significa servidumbre o trabajado forzado, y cuando se tradujo al inglés se convirtió en el término robot. Luego, Isaac Asimov comenzó en 1939 a contribuir con varias relaciones referidas a robots y a él se le atribuye el acuñamiento del término Robótica y con el surgen las denomidas “Tres Leyes de Robótica”.
En 1960 se introdujo el primer robot “Unimate”, basada en la transferencia de artículos. En 1961 Un robot Unimate se instaló en la Ford Motors Company para atender una máquina de fundición de troquel. En 1966 Trallfa, una firma noruega, construyó e instaló un robot de pintura por pulverización. En 1971 El “Standford Arm”, un pequeño brazo de robot de accionamiento eléctrico, se desarrolló en la Standford University. En 1978 Se introdujo el robot PUMA para tareas de montaje por Unimation, basándose en diseños obtenidos en un estudio de la General Motors.
En la actualidad, la robótica se debate entre modelos sumamente ambiciosos, como es el caso del IT, diseñado para expresar emociones, el COG, también conocido como el robot de cuatro sentidos, el famoso SOUJOURNER o el LUNAR ROVER, vehículo de turismo con control remotos, y otros mucho más específicos como el CYPHER, un helicóptero robot de uso militar, el guardia de tráfico japonés ANZEN TARO o los robots mascotas de Sony.
- Clasificación
Según su cronología: La que a continuación se presenta es la clasificación más común:
- 1ª Generación: Manipuladores. Son sistemas mecánicos multifuncionales con un sencillo sistema de control, bien manual, de secuencia fija o de secuencia variable.
- 2ª Generación: Robots de aprendizaje. Repiten una secuencia de movimientos que ha sido ejecutada previamente por un operador humano. El modo de hacerlo es a través de un dispositivo mecánico. El operador realiza los movimientos requeridos mientras el robot le sigue y los memoriza.
- 3ª Generación: Robots con control sensorizado. El controlador es una computadora que ejecuta las órdenes de un programa y las envía al manipulador para que realice los movimientos necesarios.
- 4ª Generación: Robots inteligentes. Son similares a los anteriores, pero además poseen sensores que envían información a la computadora de control sobre el estado del proceso.
Según su arquitectura: La arquitectura, es definida por el tipo de configuración general del Robot, puede ser metamórfica. La subdivisión de los Robots, con base en su arquitectura, se hace en los siguientes grupos:
- Poliarticulados: En este grupo están los Robots de muy diversa forma y configuración cuya característica común es la de ser básicamente sedentarios y estar estructurados para mover sus elementos terminales en un determinado espacio de trabajo según uno o más sistemas de coordenadas y con un número limitado de grados de libertad.
- Móviles: Son Robots con gran capacidad de desplazamiento, basados en carros o plataformas y dotados de un sistema locomotor de tipo rodante. Siguen su camino por telemando o guiándose por la información recibida de su entorno a través de sus sensores.
- Androides: Son Robots que intentan reproducir total o parcialmente la forma y el comportamiento cinemática del ser humano. Actualmente los androides son todavía dispositivos muy poco evolucionados y sin utilidad práctica, y destinados, fundamentalmente, al estudio y experimentación.
- Zoomórficos: considerados en sentido no restrictivo podrían incluir también a los androides, constituyen una clase caracterizada principalmente por sus sistemas de locomoción que imitan a los diversos seres vivos.
- Híbridos: Estos Robots corresponden a aquellos de difícil clasificación cuya estructura se sitúa en combinación con alguna de las anteriores ya expuestas, bien sea por conjunción o por yuxtaposición.
- Aplicaciones a la Sociedad
Teóricamente el uso de sistemas robóticos podría extenderse a casi todas las áreas imaginables en donde se necesite de la ejecución de tareas mecánicas, tareas hoy ejecutadas por el hombre o imposibles de ejecutar por él (por ej. una exploración sobre el terreno de la superficie marciana). Se entiende, en este contexto, que tarea mecánica es toda actividad que involucra presencia física y movimiento por parte de su ejecutor.
Algunos de los campos de aplicación actuales de la robótica son:
- Investigación – Exploración: en donde los robots presentan la ventaja de resistir mejor los medioambientes hostiles para el ser humano.
- Entretenimiento: esta industria se favorece del uso de robots para recrear situaciones ficticias o posibles, haciendo uso de los llamados “efectos especiales”.
- Construcción: Industria en que ya se registran proyectos que incluyen el uso de robots como ejecutores de tareas de dimensionamiento, transporte, montaje, entre otras.
- Automatización Industrial: es el más relevante y de interés para nosotros. Corresponde al uso de robots en la industria a fin de mejorar, agilizar y aumentar la producción en los diferentes procesos.
- Medicina: La robótica médica pretende compatibilizar el cirujano con el robot para mejorar los procedimientos quirúrgicos. Es una herramienta más, pero es inteligente, ya que trata de compensar las deficiencias y limitaciones que pueda tener el cirujano para realizar ciertas actuaciones.
- Espacio:Se están desarrollando los robots necesarios para explorar las superficies planetarias: los potenciales sitios de desembarco, las áreas de interés científico y la recogida de muestras para el análisis. Estos robots requieren altos niveles de autonomía, incluso la habilidad para realizar navegación local, identificando áreas de interés científico potencial, regulando los recursos de a bordo y desarrollando actividades de exploración en conjunción con el control terrestre.
BIOGRAFÍA DEL SIGUIENTE PERSONAJE
DE LA ROBÓTICA
ISAAC ASIMOV
(Petróvichi, República Socialista Federativa Soviética de Rusia, 2 de enero de 1920 – Nueva York, Estados Unidos, 6 de abril de 1992)
Fue un escritor y bioquímico ruso, nacionalizado estadounidense, conocido por ser un excepcional y prolífico autor de obras de ciencia ficción, historia y divulgación científica. Nacido en el seno de una familia judía, fue el primogénito del matrimonio formado por JudahAsimov y Anna Rachel Berman. Algunos biógrafos fijan erróneamente su nacimiento el día 4 de octubre de 1919, sin reparar en el hecho de que su madre modificó esta fecha con el propósito de que el pequeño Isaac pudiese ingresar en la enseñanza pública un año antes del que le correspondía por su edad.Durante la Segunda Guerra Mundial trabajó para la Marina estadounidense en unos laboratorios de Filadelfia. En 1942, contrajo matrimonio con Gertrudis Blugerman, con la que tendría dos hijos. Acabada la contienda, Asimov abandonó su puesto en la Navy y siguió estudios de Bioquímica en la Universidad de Columbia, en la que se doctoró 1948.
En 1970, Isaac Asimov se separó de su esposa Gertrude para casarse, tres años después, con Janet Opal Jeppson, con la que no tuvo descendencia. A comienzos de la década de los noventa, a raíz de una intervención quirúrgica motivada por una grave afección prostática, Isaac Asimov se vio obligado a reducir su intensa actividad creativa e investigadora. La muerte le sobrevino en la ciudad de Nueva York a comienzos de la primavera de 1992, como consecuencia de un fallo cardíaco y una insuficiencia renal.
Asimov explicaba que las Tres Leyes fueron creadas por John W. Campbell en una conversación que mantuvieron ambos el 23 de diciembre de 1940.
- Definición
A través del concepto de Realidad Virtual se designa a aquel sistema o interfaz informático que se encarga de generar entornos sintéticos que se suceden en tiempo real, es decir, la realidad virtual lo que propone es la representación de determinadas cosas, situaciones, a través de medios electrónicos, como por ejemplo la computadora, los cuales darán lugar a una realidad perceptiva sin soporte objetivo y que solamente encontrará su razón de ser y entidad dentro del ordenador que la haya inventado o propuesto, por esto es que muchas se dice de ella que es una pseudo realidad alternativa.
Es puede decir que la realidad virtual es simulación por computadora, dinámica y tridimensional, con alto contenido gráfico, acústico y táctil, orientada a la visualización de situaciones y variables complejas, durante la cual el usuario ingresa, a través del uso de sofisticados dispositivos de entrada, a “mundos” que aparentan ser reales, resultando inmerso en ambientes altamente participativos, de origen artificial.”
- Historia
Históricamente, se suele señalar como el origen de la realidad virtual a un sistema desarrollado por la compañía Philco Corporation en el año 1958. Este sistema había sido diseñado para lograr la generación de entornos artificiales, a los cuales podían acceder las personas mediante la utilización de un dispositivo visual en forma de casco, que podía ser controlado a través de los movimientos que los usuarios realizaban con sus cabezas.
Pero todo esto de la realidad virtual comenzó a finales de los 70´s como material para una clasede aviación en el departamento de defensa de los Estados Unidos, para hacer simulaciones de vuelo, practicando y no arriesgando vidas.
Después de esto en 1982 Scott Fisher fue considerado uno de los “Padres Fundadores” de la realidad virtual y en 1985 él creó el VISIOCASCO más avanzado en la Nasa Ames Center.
Por todas partes empiezan a surgir equipos de desarrollo trabajando en lo que era la tecnología de la realidad virtual, y se empiezan a ver los primeros resultados comerciales:
- 1980: La Compañía Stereo Graphics hace las gafas de visión estéreo.
- 1982: Thomas Zimmerman patenta un Electroguante que inventó mientras investigaba sobre cómo controlar con la mano un instrumento musical virtual.
- 1987: La compañía Inglesa Dimensión Internacional desarrolla un Software de construcción de mundos tridimensionales sobre P.C.
- 1988: Scott Foster inventa un dispositivo para la generación de sonido tridimensional.
- 1989: ATARI saca al mercado la primera máquina de galería de vídeo juegos con tecnología 3D. En ese mismo año Autodesk presenta su primer sistema de realidad virtual para P.C.
A partir de aquí entramos de lleno a la carrera comercial los sistemas de realidad virtual comienzan a popularizarse y muchos productos empiezan a invadir el mercado, en forma paralela se crea un cierto movimiento cultural conocido como el Cyberpunk. La estética y la temática del cyberpunk han llegado en los últimos años a la televisión y al cine, quizás los mejores ejemplos son “El hombre del jardín” y “Blade Runer”
Los primeros albores de la Realidad Virtual pueden remontarse, según algunos autores, a distintas épocas, pero uno de los precedentes más claros es la industria del cine. Desde siempre la cinematografía ha intentado crear formatos de imagen y sonido que hiciesen creer al espectador que se encontraba formando parte de la escena. De este intento han surgido tecnologías como el Cinemascope o el más moderno Omnimax, así como sistemas de sonido del tipo del Dolby Surround.
A comienzos de los 70 se empezó a investigar cómo hacer más fácil el entendimiento hombre – computadora, para mejorar el rendimiento y obtener toda la potencia de estas máquinas, ya que mientras la capacidad y velocidad de los ordenadores aumentaba vertiginosamente, nuestra habilidad para comunicarnos con ellos, permanecía limitada por interfaces inadecuados.También por esta época se comenzaron a apreciar las grandes ventajas de entrenar a pilotos de aviación en simuladores, en lugar de emplear auténticos aviones: menores costes, reducción de tiempo y mejora del aprendizaje, además del consiguiente y obvio nivel de seguridad que impone la práctica virtual.
- Elementos Básicos
El Visiocasco
El usuario se lo coloca en la cabeza. Este Visiocasco te impide lo que te rodea. Poniéndote una pantalla en cada ojo. Las imágenes que aparecen en las dos pantallas son ligeramente diferentes, de forma que el efecto es que el usuario puede ver un relieve.
Un mando con botones
Apretando el botón se desplazará en la dirección en la que en ese momento esté mirando.
Sensor de posición
Un sensor de posición (está en el visiocasco) para identificar dónde está viendo, el cual está conectado a la unidad de control, mide tu posición.
Tanto el visiocasco como el mando de control están conectados a una computadora.
Sea cual sea la aplicación de que se trate, la Inteligencia Artificial se sustenta sobre los dos elementos siguientes:
- Estrategias de comportamiento inteligente.
- Saber.
Estos elementos forman una construcción coherente: son forma y contenido, estructura y materia.
El primer elemento es el de las estrategias de comportamiento inteligente; se conjuga en la disposición de reglas para formular buenas inferencias o conjeturas y, también, en su utilidad para la búsqueda de una solución a la cuestión o tarea planteada. De esta forma, las estrategias son la parte estructural o formal.
Por oposición, el segundo elemento significa lo material o el contenido, y, por tanto, varía en cada caso de un modo más profundo; se trata del saber. En realidad, no se puede pretender reunir el saber, sino los saberes. Por ejemplo, cada sistema experto posee en memoria todos los conocimientos distintivos que tendría un especialista en la materia, sea un médico, un abogado o un químico. El saber que se recoge tiene un carácter especializado y alcanza un volumen conceptual considerable.
- Aplicaciones en
- Física
Visualización de fluídos de partículas.Una aplicación en el área de visualización es el fluído de partículas. Existen proyectos que modelan este tipo de fenómenos, donde el propósito principal es el fácil análisis de una gran cantidad de datos que facilitan el estudio de los modelos. Se cuenta con una herramienta auxiliar que permite visualizar modelos complicados de interpretar si solo se analizan tal cual. Este proyecto corresponde a un tipo de realidad no inmersiva.
- Ingeniería
Proceso de ensamblado.
Cuando se tiene un proceso de ensamblado de algún producto se presentan distintos acontecimientos como puede ser las deformaciones de plástico, fricción externa, fenómeno termal, absorción, y factores como el desgaste de herramientas, ocasionando errores de dimensión y forma. Si se tiene información adicional sobre el efecto de los parámetros antes mencionados sobre la variación en los valores de tolerancia y dimensión se puede desarrollar mecanismos para el ensamblado automático.
Prototipos virtuales. Una de las áreas en las que este tipo de aplicaciones tiene gran auge es la de la Ingeniería, aquí, el diseño de prototipos es combinado con un modelado virtual de estos permitiendo al diseñador jugar un rol activo en el detallado del diseño y la optimización del proceso. Las técnicas de realidad virtual permiten generar ambientes computarizados para que el diseñador investigue y pruebe múltiples cambios a sus diseños que esta realizando mientras observa y manipula objetos virtuales al usar movimientos humanos naturales.
- Oceanología
Utilizando la realidad virtual en proyectos de oceanología se puede visualizar una estructura tridimensional de la superficie del océano, donde se puede modelar por ejemplo el comportamiento de larvas, tener una simulación de cómo el viento afecta las olas, u observar fenómenos como los de El Niño o La Niña, observando temperaturas, dirección de vientos o velocidad.
- Medicina
Realidad virtual en la Psicología. El tratamiento de fobias juega un lugar muy importante dentro de la disciplina de la psicología, cada año millones de personas acuden a psicólogos para el tratamiento de fobias que van desde miedo a las alturas, a volar, a las arañas, claustrofobia, miedo a manejar, etc.
Tratamiento para el bienestar de pacientes con cáncer. Otra de los tipos de aplicaciones en el área de la psicología es el tratamiento para el bienestar de pacientes con cáncer, donde pueden experimentar mundos virtuales sin que se les cause fatiga alguna o estrés adicional.
Simulación de Cirugías virtuales. Una aplicación más de la realidad virtual en la medicina son los proyectos de cirugías virtuales. La idea general es proveer al cirujano con una herramienta que le permita experimentar diferentes procedimientos quirúrgicos en un ambiente artificial.
- Medios de Comunicación
Los medios de comunicación, en particular la televisión, aprovechan la tecnología de realidad virtual. Se puede ver como las empresas toman ventaja de la RV para obtener mayor publicidad y estar también incorporando tecnología innovadora a sus transmisiones.
- Arte
Realidad virtual en museos y planetarios. La realidad virtual juega un papel importante para el conocimiento, es utilizada por museos, planetarios y centros de ciencia. Estos centros realizan exposiciones virtuales donde se pueden hacer recorridos en templos antiguos, palacios, galaxias, aprender de diversas áreas de conocimiento, entre otras.En algunos de los proyectos realizados en los centros, se experimenta con situaciones mas cotidianas o con las que los visitantes (principalmente los jóvenes y niños) pueden identificarse, por ejemplo, se puede diseñar una montaña rusa (rollercoaster) y posteriormente experimentar el viaje como si físicamente se estuviera en la montaña, así, mientras se disfruta del viaje se puede aprender de leyes de física.
CONCLUSION
Las computadoras son fundamentales hoy día en nuestras vidas afectando todos los aspectos de esta. La Inteligencia Artificial se crea con la implementación en las computadoras para realizar mecanismo de computación que utiliza programas fijos y contiene una seria de reglas que lo hacen funcionar. La robótica es muy importante para el ser humano por que logra adaptar la vida de forma que podamos facilitar las cosas que hacemos todos los días aun.
El campo de la ciencia de Inteligencia Artificial esta todavía en etapas de crecimiento comparadas con otras ramas de computadoras pero poco a poco el estudio del comportamiento humano dará paso para aplicar estos conocimientos a las computadoras y estas lograr de manera primitiva razonas sobre diferentes situaciones.En el futuro, la inteligencia artificial podría fácilmente hacerse con todas las colonias humanas fuera de la tierra, y la raza humana nunca podrá luchar en el espacio vacío en igualdad de condiciones.
El futuro de una inteligencia superior puede ser la investigación de tecnologías como la tele portación, los viajes estelares y cualquier otra tecnología para aumentar artificialmente la inteligencia.
RECOMENDACIONES
- Dar a conocer las ventajas que proporciona la inteligencia artificial
- Realizar charlas informativas que propongan ejemplos de objetos de la vida diaria que utilicen la inteligencia artificial.
- Promover entre los estudiantes el estudio de carreras que estén relacionadas con la inteligencia artificial.
- Familiarizar al público en general en fin de culturizar a todas las personas sobre el uso de la inteligencia artificial, robótica y realidad virtual en nuestras vidas.
BIBLIOGRAFIA
____________________. Inteligencia Artificial. http://html.rincondelvago.com/inteligencia-artificial_10.html
ALONSO, D. 2008. Historia de la Realidad Virtual. http://realidad–virtual.blogspot.com/2008/07/historia-de-la-realidad-virtual.html
DUEÑAS, F. 2008. La Robótica. http://www.monografias.com/trabajos6/larobo/larobo.shtml
GEVARTER, M. 1987. Máquinas inteligentes. Madrid: Díaz de Santos, S.A.
RICH, E.; KNIGHT, K. Inteligencia Artificial. Segunda Edición. Mc Graw Hill. México 1994.
RUSSELL, N. Meter. Inteligencia Artificial un Enfoque Moderno. Prentice Hall. México 1996.
SILVA, A. 2007. Realidad Virtual. http://www.monografias.com/trabajos53/realidad-virtual/realidad-virtual2.shtml#elemen
SIMONA, G. 1987. Introducción a la Inteligencia Artificial, Ediciones Díaz Santos
VASQUEZ, S. 2010. Inteligencia Artificial. http://solvasquez.wordpress.com/2010/08/15/inteligencia-artificial/
ZAMBRANO, D. ¿Qué es Inteligencia Artificial? http://www.monografias.com/trabajos10/intelart/intelart.shtml
Citar este texto en formato APA: _______. (2014). WEBSCOLAR. Inteligencia artificial, robótica y realidad virtual. https://www.webscolar.com/inteligencia-artificial-robotica-y-realidad-virtual. Fecha de consulta: 24 de noviembre de 2024.