jueves, 10 de noviembre de 2011

EXPOSICIONES

Tecnología e informática
La Tecnología Informática (IT), según lo definido por la asociación de la Tecnología Informática de América (ITAA) es “el estudio, diseño, desarrollo, puesta en práctica, ayuda o gerencia de los sistemas informáticos computarizados, particularmente usos del software y hardware.” En fin, se ocupa del uso de computadoras y del software electrónico de convertir, de almacenar, de proteger, de procesar, de transmitir y de recuperar la información.

La Tecnología Informática hoy
Hoy, el término tecnología informática se ha ampliado para abarcar muchos aspectos referidos a la computadora y la tecnología informática. El paraguas de la tecnología informática puede ser grande, cubriendo muchos campos. Los profesionales realizan una variedad de deberes que se extiendan de instalar usos a diseñar redes de ordenadores y bases de datos complejas. Algunos de los deberes que los profesionales, Ingenieros e Ingenieros Técnicos en Informática, realizan pueden incluir:
• Gerencia de datos
• Establecimiento de redes informáticas
• Diseño de los sistemas de la base de datos
• Diseño del software
• Sistemas de información de gerencia
• Gerencia de sistemas
Una lista más extensa de asuntos relacionados se proporciona abajo. y desarrollar aun mas el mundo de la tecnología uy6ui6urtyur6ittyu78idydti
Organizaciones de la industria
La tecnología de la informática del mundo y la alianza de los servicios (WITSA) es un consorcio sobre 60 asociaciones de la industria de la tecnología informática (IT) de economías alrededor del mundo. Fundado adentro 1978 y conocido originalmente como la asociación de la industria de servicios del mundo que computaba, WITSA ha asumido cada vez más un papel activo de la defensa en las ediciones internacionales del orden público que afectaban la creación de una infraestructura de datos global robusta.
La asociación de la tecnología informática de América (ITAA) es un grupo comercial de la industria para varias compañías de la tecnología informática de los EE.UU.
Fundado en 1961 como la asociación de las organizaciones de servicios de proceso de datos (ADAPSO), la asociación de la tecnología informática de América (ITAA) proporciona el orden público global, el establecimiento de una red del negocio, y la dirección nacional para promover el crecimiento rápido continuado del IT industrial. ITAA consiste en aproximadamente 325 miembros corporativos a través de los EE.UU., y es secretaría de la tecnología informática del mundo y mantiene la alianza (WITSA), una red global de IT de los 67 países asociados. Y también de la OTAM.
BREVE HISTORIA DE LA TELEFONIA CELULAR
Martin Cooper fue el pionero en esta tecnología, a él se le considera como "el padre de la telefonía celular" al introducir el primer radioteléfono, en 1973, en Estados Unidos, mientras trabajaba para Motorola; pero no fue hasta 1979 cuando aparecieron los primeros sistemas comerciales en Tokio, Japón por la compañía NTT.
En 1981, los países nórdicos introdujeron un sistema celular similar a AMPS (Advanced Mobile Phone System). Por otro lado, en Estados Unidos, gracias a que la entidad reguladora de ese país adoptó reglas para la creación de un servicio comercial de telefonía celular, en 1983 se puso en operación el primer sistema comercial en la ciudad de Chicago.
Con ese punto de partida, en varios países se diseminó la telefonía celular como una alternativa a la telefonía convencional inalámbrica. La tecnología tuvo gran aceptación, por lo que a los pocos años de implantarse se empezó a saturar el servicio. En ese sentido, hubo la necesidad de desarrollar e implantar otras formas de acceso múltiple al canal y transformar los sistemas analógicos a digitales, con el objeto de darle cabida a más usuarios. Para separar una etapa de la otra, la telefonía celular se ha caracterizado por contar con diferentes generaciones. A continuación, se describe cada una de ellas.

LAS GENERACIONES DE LA TELEFONIA INALAMBRICA
--Primera generación (1G)
La 1G de la telefonia móvil hizo su aparición en 1979 y se caracterizó por se analógica y estrictamente para voz. La calidad de los enlaces era muy baja, tenían baja velocidad (2400 bauds). En cuanto a la transferencia entre celdas, era muy imprecisa ya que contaban con una baja capacidad (Basadas en FDMA, Frequency Division Multiple Access) y, además, la seguridad no existía. La tecnología predominante de esta generación es AMPS (Advanced Mobile Phone System).
--Segunda generación (2G)
La 2G arribó hasta 1990 y a diferencia de la primera se caracterizó por ser digital.
EL sistema 2G utiliza protocolos de codificación más sofisticados y se emplea en los sistemas de telefonía celular actuales. Las tecnologías predominantes son: GSM (Global System por Mobile Communications); IS-136 (conocido también como TIA/EIA136 o ANSI-136) y CDMA (Code Division Multiple Access) y PDC (Personal Digital Communications), éste último utilizado en Japón.
Los protocolos empleados en los sistemas 2G soportan velocidades de información más altas por voz, pero limitados en comunicación de datos. Se pueden ofrecer servicios auxiliares, como datos, fax y SMS (Short Message Service). La mayoría de los protocolos de 2G ofrecen diferentes niveles de encripción. En Estados Unidos y otros países se le conoce a 2G como PCS (Personal Communication Services).
--Generación 2.5 G
Muchos de los proveedores de servicios de telecomunicaciones se moverán a las redes 2.5G antes de entrar masivamente a la 3. La tecnología 2.5G es más rápida, y más económica para actualizar a 3G.
La generación 2.5G ofrece características extendidas, ya que cuenta con más capacidades adicionales que los sistemas 2G, como: GPRS (General Packet Radio System), HSCSD (High Speed Circuit Switched), EDGE (Enhanced Data Rates for Global Evolution), IS-136B e IS-95Bm ebtre otros. Los carriers europeos y estadounidenses se moverán a 2.5G en el 2001. Mientras que Japón irá directo de 2G a 3G también en el 2001.
--Tercera generación 3G.
La 3G se caracteriza por contener a la convergencia de voz y datos con acceso inalámbrico a Internet; en otras palabras, es apta para aplicaciones multimedia y altas transmisiones de datos.
Los protocolos empleados en los sistemas 3G soportan altas velocidades de información y están enfocados para aplicaciones más allá de la voz como audio (mp3), video en movimiento, videoconferencia y acceso rápido a Internet, sólo por nombrar algunos. Se espera que las redes 3G empiecen a operar en el 2001 en Japón, por NTT DoCoMo; en Europa y parte de Asia en el 2002, posteriormente en Estados Unidos y otros países.
Asimismo, en un futuro próximo los sistemas 3G alcanzarán velocidades de hasta 384 kbps, permitiendo una movilidad total a usuarios, viajando a 120 kilómetros por hora en ambientes exteriores. También alcanzará una velocidad máxima de 2 Mbps, permitiendo una movilidad limitada a usuarios, caminando a menos de 10 kilómetros por hora en ambientes estacionarios de corto alcance o en interiores.
En relación a las predicciones sobre la cantidad de usuarios que podría albergar 3G, The Yanlee Gropu anticipa que en el 2004 habrá más de 1,150 millones en el mundo, comparados con los 700 millones que hubo en el 2000. Dichas cifras nos anticipan un gran número de capital involucrado en la telefonía inalámbrica, lo que con mayor razón las compañías fabricantes de tecnología, así como los proveedores de servicios de telecomunicaciones estarán dispuestos a invertir su capital en esta nueva aventura llamada 3G.

COMO FUNCIONA UN TELEFONO CELULAR
La gran idea del sistema celular es la división de la ciudad en pequeñas células o celdas. Esta idea permite la re-utilización de frecuencias a través de la ciudad, con lo que miles de personas pueden usar los teléfonos al mismo tiempo. En un sistema típico de telefonía análoga de los Estados Unidos, la compañía recibe alrededor de 800 frecuencias para usar en cada ciudad. La compañía divide la ciudad en celdas. Cada celda generalmente tiene un tamaño de 26 kilómetros cuadrados. Las celdas son normalmente diseñadas como hexágonos (figuras de seis lados), en una gran rejilla de hexágonos.

LOS VIRUS
Definición de Virus
Los Virus informáticos son programas de ordenador que se reproducen a sí mismos e interfieren con el hardware de una computadora o con su sistema operativo (el software básico que controla la computadora). Los virus están diseñados para reproducirse y evitar su detección. Como cualquier otro programa informático, un virus debe ser ejecutado para que funcione: es decir, el ordenador debe cargar el virus desde la memoria del ordenador y seguir sus instrucciones. Estas instrucciones se conocen como carga activa del virus. La carga activa puede trastornar o modificar archivos de datos, presentar un determinado mensaje o provocar fallos en el sistema operativo.
Existen otros programas informáticos nocivos similares a los virus, pero que no cumplen ambos requisitos de reproducirse y eludir su detección. Estos programas se dividen en tres categorías: Caballos de Troya, bombas lógicas y gusanos. Un caballo de Troya aparenta ser algo interesante e inocuo, por ejemplo un juego, pero cuando se ejecuta puede tener efectos dañinos. Una bomba lógica libera su carga activa cuando se cumple una condición determinada, como cuando se alcanza una fecha u hora determinada o cuando se teclea una combinación de letras. Un gusano se limita a reproducirse, pero puede ocupar memoria de la computadora y hacer que sus procesos vayan más lentos.
Algunas de las características de estos agentes víricos:
• Son programas de computadora: En informática programa es sinónimo de Software, es decir el conjunto de instrucciones que ejecuta un ordenador o computadora.
• Es dañino: Un virus informático siempre causa daños en el sistema que infecta, pero vale aclarar que el hacer daño no significa que valla a romper algo. El daño puede ser implícito cuando lo que se busca es destruir o alterar información o pueden ser situaciones con efectos negativos para la computadora, como consumo de memoria principal, tiempo de procesador.
• Es auto reproductor: La característica más importante de este tipo de programas es la de crear copias de sí mismos, cosa que ningún otro programa convencional hace. Imaginemos que si todos tuvieran esta capacidad podríamos instalar un procesador de textos y un par de días más tarde tendríamos tres de ellos o más.
• Es subrepticio: Esto significa que utilizará varias técnicas para evitar que el usuario se de cuenta de su presencia. La primera medida es tener un tamaño reducido para poder disimularse a primera vista. Puede llegar a manipular el resultado de una petición al sistema operativo de mostrar el tamaño del archivo e incluso todos sus atributos.
Las acciones de los virus son diversas, y en su mayoría inofensivas, aunque algunas pueden provocar efectos molestos y, en ciertos, casos un grave daño sobre la información, incluyendo pérdidas de datos. Hay virus que ni siquiera están diseñados para activarse, por lo que sólo ocupan espacio en disco, o en la memoria. Sin embargo, es recomendable y posible evitarlos.
Generalidades sobre los virus de computadoras
La primer aclaración que cabe es que los virus de computadoras, son simplemente programas, y como tales, hechos por programadores. Son programas que debido a sus características particulares, son especiales. Para hacer un virus de computadora, no se requiere capacitación especial, ni una genialidad significativa, sino conocimientos de lenguajes de programación, de algunos temas no difundidos para público en general y algunos conocimientos puntuales sobre el ambiente de programación y arquitectura de las computadoras.
En la vida diaria, más allá de las especificaciones técnicas, cuando un programa invade inadvertidamente el sistema, se replica sin conocimiento del usuario y produce daños, pérdida de información o fallas del sistema. Para el usuario se comportan como tales y funcionalmente lo son en realidad.
Los virus actúan enmascarados por "debajo" del sistema operativo, como regla general, y para actuar sobre los periféricos del sistema, tales como disco rígido, disqueteras, ZIP’s CD’s, hacen uso de sus propias rutinas aunque no exclusivamente. Un programa "normal" por llamarlo así, usa las rutinas del sistema operativo para acceder al control de los periféricos del sistema, y eso hace que el usuario sepa exactamente las operaciones que realiza, teniendo control sobre ellas. Los virus, por el contrario, para ocultarse a los ojos del usuario, tienen sus propias rutinas para conectarse con los periféricos de la computadora, lo que les garantiza cierto grado de inmunidad a los ojos del usuario, que no advierte su presencia, ya que el sistema operativo no refleja su actividad en la computadora. Esto no es una "regla", ya que ciertos virus, especialmente los que operan bajo Windows, usan rutinas y funciones operativas que se conocen como API’s. Windows, desarrollado con una arquitectura muy particular, debe su gran éxito a las rutinas y funciones que pone a disposición de los programadores y por cierto, también disponibles para los desarrolladores de virus. Una de las bases del poder destructivo de este tipo de programas radica en el uso de funciones de manera "sigilosa", se oculta a los ojos del usuario común.
La clave de los virus radica justamente en que son programas. Un virus para ser activado debe ser ejecutado y funcionar dentro del sistema al menos una vez. Demás está decir que los virus no "surgen" de las computadoras espontáneamente, sino que ingresan al sistema inadvertidamente para el usuario, y al ser ejecutados, se activan y actúan con la computadora huésped.
Los nuevos virus e Internet
Hasta la aparición del programa Microsoft Outlook, era imposible adquirir virus mediante el correo electrónico. Los e-mails no podían de ninguna manera infectar una computadora. Solamente si se adjuntaba un archivo susceptible de infección, se bajaba a la computadora, y se ejecutaba, podía ingresar un archivo infectado a la máquina. Esta paradisíaca condición cambió de pronto con las declaraciones de Padgett Peterson, miembro de Computer Antivirus Research Organization, el cual afirmó la posibilidad de introducir un virus en el disco duro del usuario de Windows 98 mediante el correo electrónico. Esto fue posible porque el gestor de correo Microsoft Outlook 97 es capaz de ejecutar programas escritos en Visual Basic para Aplicaciones (antes conocido como Visual Languaje, propiedad de Microsoft), algo que no sucedía en Windows 95. Esto fue negado por el gigante del software y se intentó ridiculizar a Peterson de diversas maneras a través de campañas de marketing, pero como sucede a veces, la verdad no siempre tiene que ser probada. A los pocos meses del anuncio, hizo su aparición un nuevo virus, llamado BubbleBoy, que infectaba computadoras a través del e-mail, aprovechándose del agujero anunciado por Peterson. Una nueva variedad de virus había nacido.
Para ser infectado por el BubbleBoy, sólo es necesario que el usuario reciba un mail infectado y tenga instalados Windows 98 y el programa gestor de correo Microsoft Outlook. La innovación tecnológica implementada por Microsoft y que permitiría mejoras en la gestión del correo, resultó una vez más en agujeros de seguridad que vulneraron las computadoras de desprevenidos usuarios.
Las mejoras que provienen de los lenguajes de macros de la familia Microsoft facilitan la presencia de "huecos" en los sistemas que permiten la creación de técnicas y herramientas aptas para la violación nuestros sistemas. La gran corriente de creación de virus de Word y Excel, conocidos como Macro-Virus, nació como consecuencia de la introducción del Lenguaje de Macros WordBasic (y su actual sucesor Visual Basic para Aplicaciones), en los paquetes de Microsoft Office. Actualmente los Macrovirus representan el 80 % del total de los virus que circulan por el mundo.
Hoy en día también existen archivos de páginas Web que pueden infectar una computadora. El boom de Internet ha permitido la propagación instantánea de virus a todas las fronteras, haciendo susceptible de ataques a cualquier usuario conectado. La red mundial de Internet debe ser considerada como una red insegura, susceptible de esparcir programas creados para aprovechar los huecos de seguridad de Windows y que faciliten el "implante" de los mismos en nuestros sistemas. Los virus pueden ser programados para analizar y enviar nuestra información a lugares remotos, y lo que es peor, de manera inadvertida. El protocolo TCP/IP, desarrollado por los creadores del concepto de Internet, es la herramienta más flexible creada hasta el momento; permite la conexión de cualquier computadora con cualquier sistema operativo. Este maravilloso protocolo, que controla la transferencia de la información, al mismo tiempo, vuelve sumamente vulnerable de violación a toda la red. Cualquier computadora conectada a la red, puede ser localizada y accedida remotamente si se siguen algunos caminos que no analizaremos por razones de seguridad. Lo cierto es que cualquier persona con conocimientos de acceso al hardware por bajo nivel, pueden monitorear una computadora conectada a Internet. Durante la conexión es el momento en el que el sistema se vuelve vulnerable y puede ser "hackeado". Sólo es necesario introducir en el sistema un programa que permita "abrir la puerta" de la conexión para permitir el acceso del intruso o directamente el envío de la información contenida en nuestro disco. En realidad, hackear un sistema Windows es ridículamente fácil. La clave de todo es la introducción de tal programa, que puede enviarse en un archivo adjunto a un e-mail que ejecutamos, un disquete que recibimos y que contiene un programa con el virus, o quizá un simple e-mail. El concepto de virus debería ser ampliado a todos aquellos programas que de alguna manera crean nuevas puertas en nuestros sistemas que se activan durante la conexión a Internet para facilitar el acceso del intruso o enviar directamente nuestra información privada a usuarios en sitios remotos.
Entre los virus que más fuerte han azotado a la sociedad en los últimos dos años se pueden mencionar:
• Sircam
• Code Red
• Nimda
• Magistr
• Melissa
• Klez
• LoveLetter

ANTIVIRUS
• Tenga siempre instalado un antivirus en su computadora, como medida general analice todos los discos que desee instalar. Si detecta algún virus elimine la instalación lo antes posible.
• Actualice periódicamente su antivirus
• Un antivirus que no esté actualizado puede ser completamente inútil. Todos los antivirus existentes en el mercado permanecen residentes en la computadora para controlar todas las operaciones de ejecución y transferencia de ficheros analizando cada fichero para determinar si tiene virus, mientras el usuario realiza otras tareas.


Redes de Computadores
La definición más clara de una red es la de un sistema de comunicaciones, ya que permite comunicarse con otros usuarios y compartir archivos y periféricos. Es decir es un sistema de comunicaciones que conecta a varias unidades y que les permite intercambiar información.
• Se entiende por red al conjunto interconectado de ordenadores autómomos.
• Se dice que dos ordenadores están interconectados, si éstos son capaces de intercambiar información. La conexión no necesita hacerse a través de un hilo de cobre , también puede hacerse mediante el uso de láser, microondas y satélites de comunicación.
• RED ESTRELLA RED ANILLO
• Objetivos de las Redes
• Son muchas las organizaciones que cuentan con un número considerable de ordenadores en operación y con frecuencia alejados unos de otros. Por ejemplo, una compañía con varias fábricas puede tener un ordenador en cada una de ellas para mantener un seguimiento de inventarios, observar la productividad y llevar la nómina local.
• Inicialmente cada uno de estos ordenadores puede haber estado trabajando en forma aislada de las demás pero, en algún momento, la administración puede decidir interconectarlos para tener así la capacidad de extraer y correlacionar información referente a toda la compañía.
• Es decir el objetivo básico es compartir recursos, es decir hacer que todos los programas, datos y equipos estén disponibles para cualquiera de la red que lo solicite, sin importar la localización del recurso y del usuario.
• Un segundo objetivo es proporcionar una alta fiabilidad, al contar con fuentes alternativas de suministro.
• Todos los archivos podrìan duplicarse en dos o tres máquinas, de tal manera que si una no se encuentra disponible, podría utilizarse algunas de las copias.
• La presencia de múltiples CPU significa que si una de ellas deja de funcionar, las otras pueden ser capaces de encargarse de su trabajo, aunque se tenga un rendimiento global menor.
• Otro objetivo es el ahorro económico. Las grandes máquinas tienen una rapidez mucho mayor.
• Una red de ordenadores puede proporcionar un poderoso medio de comunicacion entre personas que se encuentran muy alejadas entre sí.
• Con el empleo de una red es relativamente fácil para dos personas, que viven en lugares separados, escribir un informe juntos.
• EEUU Ecuadonternet







Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.
Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión.
Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia -telefonía (VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.
Historia
Sus orígenes se remontan a la década de 1960, dentro de ARPA (hoy DARPA), como respuesta a la necesidad de esta organización de buscar mejores maneras de usar los computadores de ese entonces, pero enfrentados al problema de que los principales investigadores y laboratorios deseaban tener sus propios computadores, lo que no sólo era más costoso, sino que provocaba una duplicación de esfuerzos y recursos.5 Así nace ARPANet (Advanced Research Projects Agency Network o Red de la Agencia para los Proyectos de Investigación Avanzada de los Estados Unidos), que nos legó el trazado de una red inicial de comunicaciones de alta velocidad a la cual fueron integrándose otras instituciones gubernamentales y redes académicas durante los años 70.
Investigadores, científicos, profesores y estudiantes se beneficiaron de la comunicación con otras instituciones y colegas en su rama, así como de la posibilidad de consultar la información disponible en otros centros académicos y de investigación. De igual manera, disfrutaron de la nueva habilidad para publicar y hacer disponible a otros la información generada en sus actividades.
En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida.





Inteligencia Artificial y Sistemas Expertos

1. INTELIGENCIA ARTIFICIAL Y SISTEMAS EXPERTOS Grupo 4: Melissa Eslava, Ma. Carolina Orta, Xenia Puente, Hanobi Rodríguez, Noraima Rojas
2. La Inteligencia Artificial es la parte de la Ciencia que se ocupa del diseño de sistemas de computación inteligentes , es decir, sistemas que exhiben las características que asociamos a la inteligencia en el comportamiento humano que se refiere a la comprensión del lenguaje, el aprendizaje, el razonamiento, la resolución de problemas, entre otros. INTELIGENCIA ARTIFICIAL (IA): La Inteligencia Artificial es una ciencia que intenta la creación de programas para máquinas que imiten el comportamiento y la comprensión humana.
3. Los sistemas de Inteligencia Artificial incluyen a las personas, los procedimientos, el hardware y software, los datos y los conocimientos necesarios para desarrollar sistemas, y máquinas de computación que presenten características de inteligencia. El objetivo del desarrollo de sistemas de IA contemporáneos no es el reemplazo completo de la toma de decisiones de los humanos, pero sí duplicarlas para ciertos tipos de problemas bien definidos. INTELIGENCIA ARTIFICIAL (IA):
4. Estudios centrados en Redes Neuronales. Demostración de Teoremas y Ajedrez. (1937) Matemático Ingles Alan Mathison Turing (Articulo "Números Calculables”), introdujo la Máquina de Turing, una entidad matemática abstracta que formalizo el concepto de algoritmo y resulto ser la precursora de las computadoras digitales. Considerado padre de la Inteligencia Artificial, por su famosa Prueba de Turing, que permitiría comprobar si un programa de computadora puede ser tan inteligente como un ser humano. ETAPAS DE LA IA: 1943 - 1956
5. Creación de sistemas que resuelvan cualquier problema. Avances limitados por los recursos computacionales. ETAPAS DE LA IA: 1952 - 1969 1966 - 1974 1969 - 1979 Algoritmos genéticos. Problemas en la representación del conocimiento. DENDRAL, MYCIN. Las empresas se interesan por la IA. Control industrial y robótica. 1980 - 1988 Resolución de problemas del mundo real. Sistemas especializados que cooperan. 1988 ….
6. PRINCIPALES RAMAS DE LA IA: Desarrollo de dispositivos mecánicos o de computación que tengan la capacidad de realizar funciones y/o tareas que requieran de un alto grado de precisión, tediosas o impliquen riesgo de peligro para los seres humanos. En la actualidad se combinan las capacidades de alta precisión de la máquina con un software controlador sofisticado. Robot QRIO de Sony http:// www.youtube.com/watch?v=rokOtmUhos0 El primer trabajo práctico de Robótica en la Maestría de Inteligencia Artificial en la UCLA, Venezuela :D...Robot minibot Lego RCX http://www.youtube.com/watch?v=Wz0aJmFYeaE http://www.youtube.com/watch?v=yzCadN4_5Ms Los esfuerzos de la IA se clasifican según varias categorías: Robótica I.A
7. Equipos y software que les permite a las computadoras capturar, almacenar y manipular imágenes visuales y fotografías. PRINCIPALES RAMAS DE LA IA: Los esfuerzos de la IA se clasifican según varias categorías: Se pueden usar junto con robots para darles "visión" a estas máquinas y que pueda tomar decisiones con base a lo que ve y reconocer la información visual de acuerdo con patrones generales. Ver video: Sistemas de Visión Robótica http://www.youtube.com/watch?v=HdHFTxlYIjc I.A
8. PRINCIPALES RAMAS DE LA IA: Los esfuerzos de la IA se clasifican según varias categorías: Programas que tienen como entrada lenguajes humanos para traducirlos en un conjunto estándar de instrucciones que una computadora ejecuta. Permiten a los seres humanos usar su propio lenguaje natural cuando interactúan con programas como sistemas de administración de bases de datos (DBMS) o sistemas de apoyo para la toma de decisiones. Robótica Sistemas de Visión Procesamiento de Lenguaje Natural I.A
9. PRINCIPALES RAMAS DE LA IA: Los esfuerzos de la IA se clasifican según varias categorías: El objetivo de los procesadores de lenguaje natural es eliminar paulatinamente la necesidad de aprender lenguajes de programación o comandos personalizados para que las computadoras entiendan. Su ventaja radica en que combinados con dispositivos de reconocimiento de voz, el usuario de instrucciones a las computadoras para que realicen tareas, sin usar un teclado o cualquier otro dispositivo de entrada. Ver video: Robótica http://www.youtube.com/watch?v=ilchnpsROSs Sistemas de Visión Procesamiento de Lenguaje Natural I.A
10. PRINCIPALES RAMAS DE LA IA: Los esfuerzos de la IA se clasifican según varias categorías: Combinación de software y equipos que le permite a la computadora cambiar su modo de funcionar o reaccionar a situaciones, basado en la retroalimentación que recibe. Robótica Sistemas de Visión Procesamiento de Lenguaje Natural Sistemas de Aprendizaje I.A
11. PRINCIPALES RAMAS DE LA IA: Los esfuerzos de la IA se clasifican según varias categorías: Es un sistema de computación que puede actuar en la misma forma que funciona el cerebro humano, o simularlo. La redes neuronales pueden procesar muchas piezas de información al mismo tiempo y aprender a reconocer patrones. Un sistema de red neuronal aprende por ensayo y error. Ver video: http://www.youtube.com/watch?v=1u18juT89NM Robótica Sistemas de Visión Procesamiento de Lenguaje Natural Sistemas de Aprendizaje Redes Neuronales I.A
12. PRINCIPALES RAMAS DE LA IA: Red neuronal artificial perceptrón simple con n neuronas de entrada, m neuronas en su capa oculta y una neurona de salida. T Tomado de Wikilearning http://es.wikipedia.org/wiki/Red_neuronal_artificial
13. PRINCIPALES RAMAS DE LA IA: Los esfuerzos de la IA se clasifican según varias categorías:
o Capacidad de recuperar información incluso si falla alguno de sus nodos.
o Modificación rápida de los datos almacenados a partir de nueva información.
o Capacidad de descubrir relaciones y tendencias en grandes bases de datos.
o Capacidad de resolver problemas complejos para los cuales no se cuenta con la información.
o Ver video:
Robótica http://www.youtube.com/watch?v=DCcjMHt3CoY Redes Neuronales Sistemas de Aprendizaje Procesamiento de Lenguaje Natural Sistemas de Visión I.A
14. PRINCIPALES RAMAS DE LA IA: Los esfuerzos de la IA se clasifican según varias categorías: Se basa en reglas que no tienen límites discretos, sino que se prolongan en un continuum, permitiendo a un sistema manejar mejor la ambigüedad. Esto es muy útil para reflejar cómo tienden a pensar las personas, en términos relativos, no absolutos. Robótica Sistemas de Visión Procesamiento de Lenguaje Natural Sistemas de Aprendizaje Redes Neuronales Lógica Difusa I.A
15. PRINCIPALES RAMAS DE LA IA: Los esfuerzos de la IA se clasifican según varias categorías: Un algoritmo genético es un método de búsqueda dirigida basada en Probabilidad . Al aumentar el número de iteraciones, la probabilidad de tener el óptimo en la población tiende a 1. Funciones matemáticas que usan los principios de Darwin para mejorar una aplicación. La funciones se diseñan para simular en software, en cuestión de minutos o segundos I.A. Algoritmos Genéticos I.A Robótica Lógica Difusa Redes Neuronales Sistemas de Aprendizaje Procesamiento de Lenguaje Natural Sistemas de Visión
16. PRINCIPALES RAMAS DE LA IA: Los esfuerzos de la IA se clasifican según varias categorías : Programas de computadora que automáticamente revisan enormes cantidades de datos y seleccionan y entregan la información más adecuada para el usuario, de acuerdo con requisitos contextuales o específicos. La aplicación más importante de los agentes inteligentes se encuentra en la WEB. www.google.co.ve www.amazon.com I.A Logaritmos Genéticos Robótica Lógica Difusa Redes Neuronales Sistemas de Aprendizaje Procesamiento de Lenguaje Natural Sistemas de Visión Agentes Inteligentes
17. PRINCIPALES RAMAS DE LA IA: Los esfuerzos de la IA se clasifican según varias categorías: El propósito principal de los agentes inteligentes es realizar sus tareas significativas más rápido, con más frecuencia y de manera más efectiva, que el usuario. Los agentes inteligentes vinculan automáticamente su computadora con sitios favoritos, le avisan cuando éstos se hayan actualizado y adecuan páginas específicas a sus preferencias. I.A Logaritmos Genéticos Robótica Lógica Difusa Redes Neuronales Sistemas de Aprendizaje Procesamiento de Lenguaje Natural Sistemas de Visión Agentes Inteligentes
18. PRINCIPALES RAMAS DE LA IA: Los esfuerzos de la IA se clasifican según varias categorías: Programa de computadora, inteligente, que usa el conocimiento y los procedimientos de inferencia para resolver problemas que son suficientemente difíciles como para requerir significativa experiencia humana para su solución. Hace un amplio uso del conocimiento especializado, como lo hace un experto humano. Trabaja sobre un dominio especifico. I.A Logaritmos Genéticos Sistemas Expertos Robótica Lógica Difusa Redes Neuronales Sistemas de Aprendizaje Procesamiento de Lenguaje Natural Sistemas de Visión Agentes Inteligentes
19. PRINCIPALES RAMAS DE LA IA: Los esfuerzos de la IA se clasifican según varias categorías: Se utilizan los términos: Sistema Experto (SE), Sistemas Basados en Conocimientos o Sistema Experto Basado en Conocimiento. Para construir un SE, un ingeniero del conocimiento se entrevista con un experto humano, y traduce la información en código. I.A Logaritmos Genéticos Sistemas Expertos Robótica Lógica Difusa Redes Neuronales Sistemas de Aprendizaje Procesamiento de Lenguaje Natural Sistemas de Visión Agentes Inteligentes

No hay comentarios:

Publicar un comentario