Webscolar

Inteligencia artificial, robótica y realidad virtual

INTRODUCCION

La Inteligencia Artificial surge definitivamente a partir de algunos trabajos publicados en la década de 1940 que no tuvieron gran repercusión, pero a partir del influyente trabajo en 1950 de Alan Turing, matemático británico, se abre una nueva disciplina de las ciencias de la información. Si bien las ideas fundamentales se remontan a la lógica y algoritmos de los griegos, y a las matemáticas de los árabes, varios siglos antes de Cristo, el concepto de obtener razonamiento artificial aparece en el siglo XIV. A finales del siglo XIX se obtienen lógicas formales suficientemente poderosas y a mediados del siglo XX, se obtienen máquinas capaces de hacer uso de tales lógicas y algoritmos de solución.

Este trabajo posee tres capítulos que estarán detallando ampliamente sobre los fundamentos estas ciencias. El primer capítulo define el concepto de Inteligencia Artificial, sus características y sobre todo su aplicación en la sociedad.El segundo capítulo se detalla todo lo referente a la robótica, su historia y la clasificación, además de la aplicación y beneficiosos de sus usos.

El tercer y último capítulo se enfoca en la realidad virtual, como se define, su origen, los personajes que dieron su inicio, elementos que lo fundamentan y sus aplicaciones en diversas ramas como la física, ingeniería, oceanografía, medicina, medios de comunicación y en las artes.

El principal objetivo de este trabajo es mantener informado a los lectores sobre los avances tecnológicos de la informático y la importancia de su conocimiento y uso.

En ciencias de la computación se denomina inteligencia artificial (IA) a la capacidad de razonar de un agente no vivo. John McCarthy, acuñó el término en 1956, la definió: Es la ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes.

La Inteligencia Artificial es una combinación de la ciencia del computador, fisiología y filosofía, tan general y amplio como eso, es que reúne varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas que pueden pensar.

La Inteligencia Artificial trata de conseguir que los ordenadores simulen en cierta manera la inteligencia humana. Se acude a sus técnicas cuando es necesario incorporar en un sistema informático,conocimiento o características propias del ser humano.

La idea de algo parecido a la inteligencia artificial existe desde hace millones de años. El primer hombre primitivo que tomo conciencia de su propia existencia, y de que era capaz de pensar, seguramente se pregunto como funcionaria su pensamiento y posteriormentellegaría a la idea de un “creador superior”. Por lo tanto, la idea de que un ser inteligente cree a otro, la idea de un diseño virtual para la inteligencia, es tan remota como la toma de conciencia del ser humano.

Los juegos matemáticos antiguos, como el de la torres de hanoi (aprox 3000ac), demuestran el interés por la búsqueda de un bucle resolutor, una IA capaz de ganar en los mínimos movimientos posibles. En 1903 Lee De Forest inventa el tríodo (también llamados bulbo o válvula de vacío). Podría decirse que la primera gran máquina inteligente diseñada por el hombre fue el computador ENIAC, compuesto por 18.000 válvulas de vacío, teniendo en cuenta que el concepto de “inteligencia” es un término subjetivo que depende de la inteligencia y la tecnología que tengamos en esa época. Un indígenade las amazonas en el siglo 20 podría calificar de inteligente un tocadiscos, cuando en verdad no lo es tanto.

En 1937, el matemático inglés Alan Mathison Turing (1912-1953) publicó un artículo de bastante repercusión sobre los “Números Calculables”, que puede considerarse el origen oficial de la InformáticaTeórica. En este artículo, introdujo la Máquina de Turing, una entidad matemática abstracta que formalizó el concepto de algoritmo y resultó ser la precursora de las computadoras digitales. Con ayuda de su máquina, Turing pudo demostrar que existen problemas irresolubles, de los que ningún computador será capaz de obtener su solución, por lo que a Alan Turing se le considera el padre de la teoría de la computabilidad. También se le considera el padre de la Inteligencia Artificial, por su famosa Prueba de Turing, que permitiría comprobar si un programa de ordenador puede ser tan inteligente como un ser humano.

En 1951 William Shockley inventa el transistor de unión. El invento del transistor hizo posible una nueva generación de computadoras mucho más rápidas y pequeñas. 5 años después, se acuño el término “inteligencia artificial” en Dartmouth durante una conferencia convocada por McCarthy, a la cual asistieron, entre otros, Minsky, Newell y Simon. En esta conferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.

En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugar al auge de los sistemas expertos, pero que no alcanzó muchos de sus objetivos, por lo que este campo ha sufrido una nueva detención en los años noventa. En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agente inteligente. Al intentar describir con un mayor ámbito (no solo la comunicación) los atributos de un agente inteligente, la IA se ha extendido a muchas áreas que han creado ramas de investigaciones enormes y diferenciadas.

Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos, también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial.

Los atributos del agente inteligente son:

  1. Tiene actitudes mentales tales como creencias e intenciones
  2. Tiene la capacidad de obtener conocimiento, es decir, aprender.
  3. Puede resolver problemas, incluso particionando problemas complejos en otros más simples.
  4. Entiende. Posee la capacidad de crearle sentido, si es posible, a ideas ambiguas o contradictorias.
  5. Planifica, predice consecuencias, evalúa alternativas
  6. Conoce los límites de su propia habilidad y conocimientos.
  7. Puede distinguir a pesar de la similitud de las situaciones.
  8. Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando analogías.
  9. Puede percibir y modelar el mundo exterior.
  10. Puede entender y utilizar el lenguaje y sus símbolos.

Podemos entonces decir que la IA incluye características humanas tales como el aprendizaje, la adaptación, el razonamiento, la autocorrección, el mejoramiento implícito, y la percepción modelar del mundo. Así, podemos hablar ya no sólo de un objetivo, sino de muchos dependiendo del punto de vista o utilidad que pueda encontrarse a la IA.

Actualmente según Delgado (1998) existen tres paradigmas en cuánto al desarrollo de la IA, que son:

Redes neuronales

A grandes rasgos, se recordará que el cerebro humano se compone de decenas de billones de neuronas interconectadas entre sí formando circuitos o redes que desarrollan funciones específicas. Una neurona típica recoge señales procedentes de otras neuronas a través de una Pléyada de delicadas estructuras llamadas dendritas. La neurona emite impulsos de actividad eléctrica a lo largo de una fina y delgada capa denominada axón, que se escinde en millares de ramificaciones.

Las extremidades de estas ramificaciones llegan hasta las dendritas de otras neuronas y establecen conexión llamada sinapsis, que transforma el impulso eléctrico en un mensaje neuroquímico mediante liberación de unas sustancias llamadas neurotransmisores que excitan o inhiben sobre la neurona, de esta manera la información se transmite de neuronas a otras y va siendo procesada a través de las conexiones sinápticas y el aprendizaje varía de acuerdo a la efectividad de la sinapsis.

Un psicólogo D Hebb (1949), introdujo dos ideas fundamentales que han influido de manera decisiva en el campo de las redes neuronales. La hipótesis de Hebb, basadas en investigaciones psicofisiológicas, presentan de manera intuitiva el modo en que las neuronas memorizan información y se plasman sintéticamente en la famosa regla de aprendizaje de Hebb (también conocida como regla de producto). Esta regla indica que las conexiones entre dos neuronas se refuerza si ambas son activadas. Muchos de los algoritmos actuales proceden de los conceptos de este psicólogo.

Widrow (1959), publica una teoría sobre la adaptación neuronal y unos modelos inspirados en esta teoría, el Adaline (Adaptative Linear Neuron) y el Madaline (Múltiple Adaline). Estos modelos fueron usados en numerosas aplicaciones y permitieron usar, por primera vez, una red neuronal en un problema importante del mundo real: filtros adaptativos que eliminan ecos en las línea telefónicas.

Hopfield (1980), elabora un modelo de red consistente en unidades de proceso interconectadas que alcanzan mínimos energéticos, aplicando los principios de estabilidad desarrollados por Grossberg. El modelo resultó muy ilustrativo sobre los mecanismos de almacenamiento y recuperación de la memoria. Su entusiasmo y claridad de presentación dieron un nuevo impulso al campo y provocó el incremento de las investigaciones.

Otros desarrollos destacables de esta década son la máquina de Boltzmann y los modelos Bam (Bi-directinal Associative Memory).

Sistemas de lógica difusa

A concepto de Delgado (1998) es la segunda herramienta que permite emular el razonamiento humano. Los seres humanos pensamos y razonamos por medio de palabras y en grados entre dos estados por ejemplo blanco y negro ó frío y caliente, etc. Estos sistemas de lógica difusa son una mejora a los sistemas experto tradicionales, en el sentido de que permiten utilizar lenguaje humano como nosotros razonamos.

Ya hablando de sistemas expertos tradicionales, estos intentan reproducir el razonamiento humano de forma simbólica. Es un tipo de programa de aplicación informática que adopta decisiones o resuelve problemas de un determinado campo, como los sistemas de producción, las finanzas o la medicina, utilizando los conocimientos y las reglas analíticas definidas por los expertos en dicho campo. Los expertos solucionan los problemas utilizando una combinación de conocimientos basados en hechos y en su capacidad de razonamiento. En los sistemas expertos, estos dos elementos básicos están contenidos en dos componentes separados, aunque relacionados: una base de conocimientos y una máquina de deducción, o de inferencia. La base de conocimientos proporciona hechos objetivos y reglas sobre el tema, mientras que la máquina de deducción proporciona la capacidad de razonamiento que permite al sistema experto extraer conclusiones. Los sistemas expertos facilitan también herramientas adicionales en forma de interfaces de usuario y los mecanismos de explicación. Las interfaces de usuario, al igual que en cualquier otra aplicación, permiten al usuario formular consultas, proporcionar información e interactuar de otras formas con el sistema. Los mecanismos de explicación, la parte más fascinante de los sistemas expertos, permiten a los sistemas explicar o justificar sus conclusiones, y también posibilitan a los programadores verificar el funcionamiento de los propios sistemas. Los sistemas expertos comenzaron a aparecer en la década de 1960. Sus campos de aplicación son la química, la geología, la medicina, la banca e inversiones y los seguros.

A experiencia de uno de los autores, el hardware en que se fundamentan estos sistemas que son circuitos integrados digitales son muy eficaces y de durabilidad de por vida si se les da correcto uso.

Algoritmos genéticos

Según Delgado (1998) son una técnica inspirada en aspectos biológicos, el proceso de la evolución del que Charles Darwin hace referencia se puede aplicar para optimizar dispositivos de control o robots o cualquier otro tipo de aspectos que sean susceptibles de ser optimizados como líneas de producción.

En general es aceptado que cualquier algoritmo genético para resolver un problema, debe tener cinco componentes básicos como se verá a continuación:

Las aplicaciones tecnológicas en las que los métodos de IA usados han demostrado con éxito que pueden resolver complicados problemas de forma masiva. En la medicina en general la inteligencia artificial ayuda a los médicos a hacer diagnósticos, supervisar la condición de los pacientes, administrar tratamientos y preparar estudios estadísticos.

Los sistemas expertos permiten almacenar y utilizar el conocimiento de uno o varios expertos humanos en un dominio de aplicación concreto. Su uso incrementa la productividad, mejora la eficiencia en la toma de de-cisiones o simplemente permite resolver problemas cuando los expertos no están presentes. Muchos son los ejemplos de sistemas expertos desarrollados.

La inteligencia artificial se ha utilizado en las siguientes ramas:

 

BIOGRAFÍA DE PERSONAJES

DE INTELIGENCIA ARTIFICIAL

ALAN TURING

(23 de junio de 1912 en Maida Vale, Londres – 7 de junio de 1954 en Wilmslow, Cheshire)

Fue un matemático, lógico, científico de la computación, criptógrafo y filósofobritánico.Es considerado uno de los padres de la ciencia de la computación siendo el precursor de la informática moderna. Proporcionó una influyente formalización de los conceptos de algoritmo y computación: la máquina de Turing. Formuló su propia versión de la hoy ampliamente aceptada Tesis de Church-Turing, la cual postula que cualquier modelo computacional existente tiene las mismas capacidades algorítmicas, o un subconjunto, de las que tiene una máquina de Turing. Durante la Segunda Guerra Mundial, trabajó en descifrar los códigos nazis, particularmente los de la máquina Enigma; durante un tiempo fue el director de la sección Naval Enigma del Bletchley Park. Tras la guerra diseñó uno de los primeros computadores electrónicos programables digitales en el Laboratorio Nacional de Física del Reino Unido y poco tiempo después construyó otra de las primeras máquinas en la Universidad de Mánchester. Entre otras muchas cosas, también contribuyó de forma particular e incluso provocativa al enigma de si las máquinas pueden pensar, es decir a la Inteligencia Artificial.

La carrera de Turing terminó súbitamente cuando fue procesado por ser homosexual. No se defendió de los cargos y se le dio a escoger entre la castración química o ir a la cárcel. Eligió lo primero y sufrió importantes consecuencias físicas, entre ellas la impotencia. Dos años después del juicio, en 1954, Turing falleció debido a la ingestión de una manzana contaminada con cianuro en un contexto que indica un posible suicidio.

Definió además un método teórico para decidir si una máquina era capaz de pensar como un hombre (test de Turing) y realizó contribuciones a otras ramas de la matemática aplicada, como la aplicación de métodos analíticos y mecánicos al problema biológico de la morfogénesis.

MARVIN MINSKY

(Nueva York el 9 de agosto de 1927- )

Científico estadounidense considerado uno de los padres de las ciencias de la computación y cofundador del laboratorio de inteligencia artificial del Instituto Tecnológico de Massachusetts o MIT.

Tras acabar la secundaria se unió a la Marina de los Estados Unidos. Tras dos años de servicio entra en la Universidad de Princeton donde se graduaría en 1950. En la actualidad ocupa la plaza de Profesor Toshiba de los Medios de Comunicación y las Ciencias en el Instituto Tecnológico de Massachusetts (MIT). En 1951 creó SNARC, el primer simulador de redes neuronales.

Escribió el libro “Perceptrones” (con Seymour Papert), que se convirtió en el trabajo fundacional en el análisis de redes neuronales artificiales. Su crítica de la investigación poco rigurosa en el campo ha sido indicada como responsable de la desaparición virtual de la investigación académica en redes neuronales artificiales durante los años 70.

Minsky ha contribuido en el desarrollo de la descripción gráfica simbólica, geometría computacional, representación del conocimiento, semántica computacional, percepción mecánica, aprendizaje simbólico y conexionista.

Sus investigaciones han sido fundamentales en campos muy diversos:
inteligencia artificial, psicología, óptica, matemáticas, robótica o
tecnología espacial. Es además uno de los investigadores de punta en
inteligencia robótica, diseñador y constructor de los primeros brazos
mecánicos con sensores táctiles, escáneres visuales o simuladores de
redes neuronales.

JOHN MCCARTHY

(4 de septiembre de 1927, Boston, Massachusetts),

Conocido como Tío John McCarthy. De hecho, fue el responsable de introducir el término “inteligencia artificial”, concepto que acuñó en la Conferencia de Dartmouth en 1955.En 1956, en una conferencia organizada junto a Marvin Minsky, Nat Rochester y Claude Shannon, bautizó su campo de estudio como “inteligencia artificial” (IA), aunque muchas veces ha dicho que si tuviera que bautizarlo de nuevo hubiera preferido llamarlo “inteligencia computacional.” La conferencia fue financiada por la Fundación Rockefeller y se llamó Dartmouth Summer Research Project on Artificial Intelligence.

En 1952, McCarthy le sugirió a Claude Shannon llamar al estudio de las máquinas pensantes con el nombre “estudios de autómatas,” pero al preparar en agosto de 1955 la propuesta para recabar financiación a la Fundación Rockefeller para la conferencia pensó que sería mejor un nombre con más marketing. El lenguaje que nació de las ideas de dicha conferencia fue LISP (LISt Processing language). En 1958 John McCarthy y sus colaboradores en el Instituto Tecnológico de Massachusetts crearon LISP, considerado por algunos el segundo lenguaje de programación de alto nivel (tras FORTRAN). McCarthy inventó el lenguaje de programación Lisp y publicó su diseño en Comunicaciones del ACM en 1960.

En 1961, fue el primero en sugerir públicamente (en un discurso dado para celebrar el centenario del MIT) que la tecnología de tiempo compartido de las computadoras podría conducir a un futuro en el que el poder del cómputo e incluso aplicaciones específicas podrían ser vendidas como un servicio (como el agua o la electricidad). John McCarthy ayudó a motivar la creación del Proyecto MAC en el MIT, pero en 1962 se marchó del MIT y se fue a la Universidad de Stanford, donde se dedicó a instalar el Laboratorio de IA de Stanford, que durante muchos años fue un rival amistoso del Proyecto MAC.

Recibió el Premio Turing en 1971 por sus importantes contribuciones en el campo de la Inteligencia Artificial.

El origen etimológico de la palabra robótica lo encontramos, ni más ni menos, que en el checo. En concreto, en la unión de dos términos: robotaque puede definirse como “trabajo forzado” y en rabota que es sinónimo de “servidumbre”. De la misma forma, hay que subrayar que la primera vez que empieza a hacerse referencia más o menos a ella fue en el año 1920 en la obra del escritor KarelCapek titulada “Los robots universales de Rossum”.

La robótica es la rama de la tecnología que se dedica al diseño, construcción, operación, disposición estructural, manufactura y aplicación de los robots. La robótica combina diversas disciplinas como son: la mecánica, la electrónica, la informática, la inteligencia artificial, la ingeniería de control y la física.

El inicio de la robótica actual puede fijarse en la industria textil del siglo XVIII, cuando Joseph Jacquard inventa en 1801 una máquina textil programable mediante tarjetas perforadas. Luego, la Revolución Industrial impulsó el desarrollo de estos agentes mecánicos. Además de esto, durante los siglos XVII y XVIII en Europa fueron construidos muñecos mecánicos muy ingeniosos que tenían algunas características de robots. Jacques de Vauncansos construyó varios músicos de tamaño humano a mediados del siglo XVIII. En 1805, Henri Maillardert construyó una muñeca mecánica que era capaz de hacer dibujos.

La palabra robot se utilizó por primera vez en 1920 en una obra llamada “Los Robots Universales de Rossum”, escrita por el dramaturgo checo KarelCapek. Su trama trataba sobre un hombre que fabricó un robot y luego este último mata al hombre. La palabra checa ‘Robota’ significa servidumbre o trabajado forzado, y cuando se tradujo al inglés se convirtió en el término robot. Luego, Isaac Asimov comenzó en 1939 a contribuir con varias relaciones referidas a robots y a él se le atribuye el acuñamiento del término Robótica y con el surgen las denomidas “Tres Leyes de Robótica”.

En 1960 se introdujo el primer robot “Unimate”, basada en la transferencia de artículos. En 1961 Un robot Unimate se instaló en la Ford Motors Company para atender una máquina de fundición de troquel. En 1966 Trallfa, una firma noruega, construyó e instaló un robot de pintura por pulverización. En 1971 El “Standford Arm”, un pequeño brazo de robot de accionamiento eléctrico, se desarrolló en la Standford University. En 1978 Se introdujo el robot PUMA para tareas de montaje por Unimation, basándose en diseños obtenidos en un estudio de la General Motors.

En la actualidad, la robótica se debate entre modelos sumamente ambiciosos, como es el caso del IT, diseñado para expresar emociones, el COG, también conocido como el robot de cuatro sentidos, el famoso SOUJOURNER o el LUNAR ROVER, vehículo de turismo con control remotos, y otros mucho más específicos como el CYPHER, un helicóptero robot de uso militar, el guardia de tráfico japonés ANZEN TARO o los robots mascotas de Sony.

Según su cronología: La que a continuación se presenta es la clasificación más común:

Según su arquitectura: La arquitectura, es definida por el tipo de configuración general del Robot, puede ser metamórfica. La subdivisión de los Robots, con base en su arquitectura, se hace en los siguientes grupos:

Teóricamente el uso de sistemas robóticos podría extenderse a casi todas las áreas imaginables en donde se necesite de la ejecución de tareas mecánicas, tareas hoy ejecutadas por el hombre o imposibles de ejecutar por él (por ej. una exploración sobre el terreno de la superficie marciana). Se entiende, en este contexto, que tarea mecánica es toda actividad que involucra presencia física y movimiento por parte de su ejecutor.

Algunos de los campos de aplicación actuales de la robótica son:

 

BIOGRAFÍA DEL SIGUIENTE PERSONAJE

DE LA ROBÓTICA

ISAAC ASIMOV

(Petróvichi, República Socialista Federativa Soviética de Rusia, 2 de enero de 1920 – Nueva York, Estados Unidos, 6 de abril de 1992)

Fue un escritor y bioquímico ruso, nacionalizado estadounidense, conocido por ser un excepcional y prolífico autor de obras de ciencia ficción, historia y divulgación científica. Nacido en el seno de una familia judía, fue el primogénito del matrimonio formado por JudahAsimov y Anna Rachel Berman. Algunos biógrafos fijan erróneamente su nacimiento el día 4 de octubre de 1919, sin reparar en el hecho de que su madre modificó esta fecha con el propósito de que el pequeño Isaac pudiese ingresar en la enseñanza pública un año antes del que le correspondía por su edad.Durante la Segunda Guerra Mundial trabajó para la Marina estadounidense en unos laboratorios de Filadelfia. En 1942, contrajo matrimonio con Gertrudis Blugerman, con la que tendría dos hijos. Acabada la contienda, Asimov abandonó su puesto en la Navy y siguió estudios de Bioquímica en la Universidad de Columbia, en la que se doctoró 1948.

En 1970, Isaac Asimov se separó de su esposa Gertrude para casarse, tres años después, con Janet Opal Jeppson, con la que no tuvo descendencia. A comienzos de la década de los noventa, a raíz de una intervención quirúrgica motivada por una grave afección prostática, Isaac Asimov se vio obligado a reducir su intensa actividad creativa e investigadora. La muerte le sobrevino en la ciudad de Nueva York a comienzos de la primavera de 1992, como consecuencia de un fallo cardíaco y una insuficiencia renal.

Asimov explicaba que las Tres Leyes fueron creadas por John W. Campbell en una conversación que mantuvieron ambos el 23 de diciembre de 1940.

A través del concepto de Realidad Virtual se designa a aquel sistema o interfaz informático que se encarga de generar entornos sintéticos que se suceden en tiempo real, es decir, la realidad virtual lo que propone es la representación de determinadas cosas, situaciones, a través de medios electrónicos, como por ejemplo la computadora, los cuales darán lugar a una realidad perceptiva sin soporte objetivo y que solamente encontrará su razón de ser y entidad dentro del ordenador que la haya inventado o propuesto, por esto es que muchas se dice de ella que es una pseudo realidad alternativa.

Es puede decir que la realidad virtual es simulación por computadora, dinámica y tridimensional, con alto contenido gráfico, acústico y táctil, orientada a la visualización de situaciones y variables complejas, durante la cual el usuario ingresa, a través del uso de sofisticados dispositivos de entrada, a “mundos” que aparentan ser reales, resultando inmerso en ambientes altamente participativos, de origen artificial.”

Históricamente, se suele señalar como el origen de la realidad virtual a un sistema desarrollado por la compañía Philco Corporation en el año 1958. Este sistema había sido diseñado para lograr la generación de entornos artificiales, a los cuales podían acceder las personas mediante la utilización de un dispositivo visual en forma de casco, que podía ser controlado a través de los movimientos que los usuarios realizaban con sus cabezas.

Pero todo esto de la realidad virtual comenzó a finales de los 70´s como material para una clasede aviación en el departamento de defensa de los Estados Unidos, para hacer simulaciones de vuelo, practicando y no arriesgando vidas.

Después de esto en 1982 Scott Fisher fue considerado uno de los “Padres Fundadores” de la realidad virtual y en 1985 él creó el VISIOCASCO más avanzado en la Nasa Ames Center.

Por todas partes empiezan a surgir equipos de desarrollo trabajando en lo que era la tecnología de la realidad virtual, y se empiezan a ver los primeros resultados comerciales:

A partir de aquí entramos de lleno a la carrera comercial los sistemas de realidad virtual comienzan a popularizarse y muchos productos empiezan a invadir el mercado, en forma paralela se crea un cierto movimiento cultural conocido como el Cyberpunk. La estética y la temática del cyberpunk han llegado en los últimos años a la televisión y al cine, quizás los mejores ejemplos son “El hombre del jardín” y “Blade Runer”

Los primeros albores de la Realidad Virtual pueden remontarse, según algunos autores, a distintas épocas, pero uno de los precedentes más claros es la industria del cine. Desde siempre la cinematografía ha intentado crear formatos de imagen y sonido que hiciesen creer al espectador que se encontraba formando parte de la escena. De este intento han surgido tecnologías como el Cinemascope o el más moderno Omnimax, así como sistemas de sonido del tipo del Dolby Surround.

A comienzos de los 70 se empezó a investigar cómo hacer más fácil el entendimiento hombre – computadora, para mejorar el rendimiento y obtener toda la potencia de estas máquinas, ya que mientras la capacidad y velocidad de los ordenadores aumentaba vertiginosamente, nuestra habilidad para comunicarnos con ellos, permanecía limitada por interfaces inadecuados.También por esta época se comenzaron a apreciar las grandes ventajas de entrenar a pilotos de aviación en simuladores, en lugar de emplear auténticos aviones: menores costes, reducción de tiempo y mejora del aprendizaje, además del consiguiente y obvio nivel de seguridad que impone la práctica virtual.

El Visiocasco

El usuario se lo coloca en la cabeza. Este Visiocasco te impide lo que te rodea. Poniéndote una pantalla en cada ojo. Las imágenes que aparecen en las dos pantallas son ligeramente diferentes, de forma que el efecto es que el usuario puede ver un relieve.

Un mando con botones

Apretando el botón se desplazará en la dirección en la que en ese momento esté mirando.

Sensor de posición

Un sensor de posición (está en el visiocasco) para identificar dónde está viendo, el cual está conectado a la unidad de control, mide tu posición.

Tanto el visiocasco como el mando de control están conectados a una computadora.

Sea cual sea la aplicación de que se trate, la Inteligencia Artificial se sustenta sobre los dos elementos siguientes:

Estos elementos forman una construcción coherente: son forma y contenido, estructura y materia.

El primer elemento es el de las estrategias de comportamiento inteligente; se conjuga en la disposición de reglas para formular buenas inferencias o conjeturas y, también, en su utilidad para la búsqueda de una solución a la cuestión o tarea planteada. De esta forma, las estrategias son la parte estructural o formal.

Por oposición, el segundo elemento significa lo material o el contenido, y, por tanto, varía en cada caso de un modo más profundo; se trata del saber. En realidad, no se puede pretender reunir el saber, sino los saberes. Por ejemplo, cada sistema experto posee en memoria todos los conocimientos distintivos que tendría un especialista en la materia, sea un médico, un abogado o un químico. El saber que se recoge tiene un carácter especializado y alcanza un volumen conceptual considerable.

Visualización de fluídos de partículas.Una aplicación en el área de visualización es el fluído de partículas. Existen proyectos que modelan este tipo de fenómenos, donde el propósito principal es el fácil análisis de una gran cantidad de datos que facilitan el estudio de los modelos. Se cuenta con una herramienta auxiliar que permite visualizar modelos complicados de interpretar si solo se analizan tal cual. Este proyecto corresponde a un tipo de realidad no inmersiva.

Proceso de ensamblado.
Cuando se tiene un proceso de ensamblado de algún producto se presentan distintos acontecimientos como puede ser las deformaciones de plástico, fricción externa, fenómeno termal, absorción, y factores como el desgaste de herramientas, ocasionando errores de dimensión y forma. Si se tiene información adicional sobre el efecto de los parámetros antes mencionados sobre la variación en los valores de tolerancia y dimensión se puede desarrollar mecanismos para el ensamblado automático.

Prototipos virtuales. Una de las áreas en las que este tipo de aplicaciones tiene gran auge es la de la Ingeniería, aquí, el diseño de prototipos es combinado con un modelado virtual de estos permitiendo al diseñador jugar un rol activo en el detallado del diseño y la optimización del proceso. Las técnicas de realidad virtual permiten generar ambientes computarizados para que el diseñador investigue y pruebe múltiples cambios a sus diseños que esta realizando mientras observa y manipula objetos virtuales al usar movimientos humanos naturales.

Utilizando la realidad virtual en proyectos de oceanología se puede visualizar una estructura tridimensional de la superficie del océano, donde se puede modelar por ejemplo el comportamiento de larvas, tener una simulación de cómo el viento afecta las olas, u observar fenómenos como los de El Niño o La Niña, observando temperaturas, dirección de vientos o velocidad.

Realidad virtual en la Psicología. El tratamiento de fobias juega un lugar muy importante dentro de la disciplina de la psicología, cada año millones de personas acuden a psicólogos para el tratamiento de fobias que van desde miedo a las alturas, a volar, a las arañas, claustrofobia, miedo a manejar, etc.

Tratamiento para el bienestar de pacientes con cáncer. Otra de los tipos de aplicaciones en el área de la psicología es el tratamiento para el bienestar de pacientes con cáncer, donde pueden experimentar mundos virtuales sin que se les cause fatiga alguna o estrés adicional.

Simulación de Cirugías virtuales. Una aplicación más de la realidad virtual en la medicina son los proyectos de cirugías virtuales. La idea general es proveer al cirujano con una herramienta que le permita experimentar diferentes procedimientos quirúrgicos en un ambiente artificial.

Los medios de comunicación, en particular la televisión, aprovechan la tecnología de realidad virtual. Se puede ver como las empresas toman ventaja de la RV para obtener mayor publicidad y estar también incorporando tecnología innovadora a sus transmisiones.

Realidad virtual en museos y planetarios. La realidad virtual juega un papel importante para el conocimiento, es utilizada por museos, planetarios y centros de ciencia. Estos centros realizan exposiciones virtuales donde se pueden hacer recorridos en templos antiguos, palacios, galaxias, aprender de diversas áreas de conocimiento, entre otras.En algunos de los proyectos realizados en los centros, se experimenta con situaciones mas cotidianas o con las que los visitantes (principalmente los jóvenes y niños) pueden identificarse, por ejemplo, se puede diseñar una montaña rusa (rollercoaster) y posteriormente experimentar el viaje como si físicamente se estuviera en la montaña, así, mientras se disfruta del viaje se puede aprender de leyes de física.

 

CONCLUSION

Las computadoras son fundamentales hoy día en nuestras vidas afectando todos los aspectos de esta. La Inteligencia Artificial se crea con la implementación en las computadoras para realizar mecanismo de computación que utiliza programas fijos y contiene una seria de reglas que lo hacen funcionar. La robótica es muy importante para el ser humano por que logra adaptar la vida de forma que podamos facilitar las cosas que hacemos todos los días aun.

El campo de la ciencia de Inteligencia Artificial esta todavía en etapas de crecimiento comparadas con otras ramas de computadoras pero poco a poco el estudio del comportamiento humano dará paso para aplicar estos conocimientos a las computadoras y estas lograr de manera primitiva razonas sobre diferentes situaciones.En el futuro, la inteligencia artificial podría fácilmente hacerse con todas las colonias humanas fuera de la tierra, y la raza humana nunca podrá luchar en el espacio vacío en igualdad de condiciones.

El futuro de una inteligencia superior puede ser la investigación de tecnologías como la tele portación, los viajes estelares y cualquier otra tecnología para aumentar artificialmente la inteligencia.

RECOMENDACIONES

BIBLIOGRAFIA

____________________. Inteligencia Artificial. http://html.rincondelvago.com/inteligencia-artificial_10.html

ALONSO, D. 2008. Historia de la Realidad Virtual. http://realidad–virtual.blogspot.com/2008/07/historia-de-la-realidad-virtual.html

DUEÑAS, F. 2008. La Robótica. http://www.monografias.com/trabajos6/larobo/larobo.shtml

GEVARTER, M. 1987. Máquinas inteligentes. Madrid: Díaz de Santos, S.A.

RICH, E.; KNIGHT, K. Inteligencia Artificial. Segunda Edición. Mc Graw Hill. México 1994.

RUSSELL, N. Meter. Inteligencia Artificial un Enfoque Moderno. Prentice Hall. México 1996.

SILVA, A. 2007. Realidad Virtual. http://www.monografias.com/trabajos53/realidad-virtual/realidad-virtual2.shtml#elemen

SIMONA, G. 1987. Introducción a la Inteligencia Artificial, Ediciones Díaz Santos

VASQUEZ, S. 2010. Inteligencia Artificial. http://solvasquez.wordpress.com/2010/08/15/inteligencia-artificial/

ZAMBRANO, D. ¿Qué es Inteligencia Artificial? http://www.monografias.com/trabajos10/intelart/intelart.shtml

Citar este texto en formato APA: _______. (2014). WEBSCOLAR. Inteligencia artificial, robótica y realidad virtual. https://www.webscolar.com/inteligencia-artificial-robotica-y-realidad-virtual. Fecha de consulta: 24 de noviembre de 2024.

Salir de la versión móvil