Datos de sergio salazar

jueves, 5 de marzo de 2009

Sistema de posicionamiento global (GPS)


El Global Positioning System (GPS) o Sistema de Posicionamiento Global (más conocido con las siglas GPS, aunque su nombre correcto es NAVSTAR-GPS[1] ) es un Sistema Global de Navegación por Satélite (GNSS) que permite determinar en todo el mundo la posición de un objeto, una persona, un vehículo o una nave, con una precisión hasta de centímetros, usando GPS diferencial, aunque lo habitual son unos pocos metros. Aunque su invención se atribuye a los gobiernos francés y belga, el sistema fue desarrollado e instalado, y actualmente es operado por el Departamento de Defensa de los Estados Unidos.
El GPS funciona mediante una red de 27
satélites (24 operativos y 3 de respaldo) en órbita sobre el globo, a 20.200 km, con trayectorias sincronizadas para cubrir toda la superficie de la Tierra. Cuando se desea determinar la posición, el receptor que se utiliza para ello localiza automáticamente como mínimo tres satélites de la red, de los que recibe unas señales indicando la posición y el reloj de cada uno de ellos. Con base en estas señales, el aparato sincroniza el reloj del GPS y calcula el retraso de las señales; es decir, la distancia al satélite. Por "triangulación" calcula la posición en que éste se encuentra. La triangulación en el caso del GPS, a diferencia del caso 2-D que consiste en averiguar el ángulo respecto de puntos conocidos, se basa en determinar la distancia de cada satélite respecto al punto de medición. Conocidas las distancias, se determina fácilmente la propia posición relativa respecto a los tres satélites. Conociendo además las coordenadas o posición de cada uno de ellos por la señal que emiten, se obtiene la posición absoluta o coordenadas reales del punto de medición. También se consigue una exactitud extrema en el reloj del GPS, similar a la de los relojes atómicos que llevan a bordo cada uno de los satélites.
La antigua
Unión Soviética tenía un sistema similar llamado GLONASS, ahora gestionado por la Federación Rusa.
Actualmente la
Unión Europea está desarrollando su propio sistema de posicionamiento por satélite, denominado Galileo.

'

Historia


En 1957 la Unión Soviética lanzó al espacio el satélite Sputnik I, que era monitorizado mediante la observación del Efecto Doppler de la señal que transmitía. Debido a este hecho, se comenzó a pensar que, de igual modo, la posición de un observador podría ser establecida mediante el estudio de la frecuencia Doppler de una señal transmitida por un satélite cuya órbita estuviera determinada con precisión.
La Armada estadounidense rápidamente aplicó esta tecnología, para proveer a los sistemas de navegación de sus flotas de observaciones de posiciones actualizadas y precisas. Así surgió el sistema TRANSIT, que quedó operativo en 1964, y hacia 1967 estuvo disponible, además, para uso comercial.
Las actualizaciones de posición, en ese entonces, se encontraban disponibles cada 40 minutos y el observador debía permanecer casi estático para poder obtener información adecuada.
Posteriormente, en esa misma década y gracias al desarrollo de los relojes atómicos, se diseñó una constelación de satélites, portando cada uno de ellos uno de estos relojes y estando todos sincronizados con base en una referencia de tiempo determinada.
En 1973 se combinaron los programas de la Armada y el de la Fuerza Aérea de los Estados Unidos (este último consistente en una técnica de transmisión codificada que proveía datos precisos usando una señal modulada con un código de ruido pseudo-aleatorio (PRN = Pseudo-Random Noise), en lo que se conoció como Navigation Technology Program, posteriormente renombrado como NAVSTAR GPS.
Entre 1978 y 1985 se desarrollaron y lanzaron once satélites prototipo experimentales NAVSTAR, a los que siguieron otras generaciones de satélites, hasta completar la constelación actual, a la que se declaró con «capacidad operacional inicial» en diciembre de 1993 y con «capacidad operacional total» en abril de 1995.
En 1994, este país ofreció el servicio normalizado de determinación de la posición para apoyar las necesidades de la OACI, y ésta acepto el ofrecimiento.


Funcionamiento


La situación de los satélites es conocida por el receptor con base en las efemérides (5 parámetros orbitales Keplerianos), parámetros que son transmitidos por los propios satélites. La colección de efemérides de toda la constelación se completa cada 12 min y se guarda en el receptor GPS.
El receptor GPS funciona midiendo su distancia a los satélites, y usa esa información para calcular su posición. Esta distancia se mide calculando el tiempo que la señal tarda en llegar al receptor. Conocido ese tiempo y basándose en el hecho de que la señal viaja a la velocidad de la luz (salvo algunas correcciones que se aplican), se puede calcular la distancia entre el receptor y el satélite.
Cada satélite indica que el receptor se encuentra en un punto en la superficie de la esfera, con centro en el propio satélite y de radio la distancia total hasta el receptor.
Obteniendo información de dos satélites se nos indica que el receptor se encuentra sobre la circunferencia que resulta cuando se intersectan las dos esferas.
Si adquirimos la misma información de un tercer satélite notamos que la nueva esfera solo corta la circunferencia anterior en dos puntos. Uno de ellos se puede descartar porque ofrece una posición absurda. De esta manera ya tendríamos la posición en 3-D. Sin embargo, dado que el reloj que incorporan los receptores GPS no está sincronizado con los relojes atómicos de los satélites GPS, los dos puntos determinados no son precisos.
Teniendo información de un cuarto satélite, eliminamos el inconveniente de la falta de sincronización entre los relojes de los receptores GPS y los relojes de los satélites. Y es en este momento cuando el receptor GPS puede determinar una posición 3-D exacta (latitud, longitud y altitud). Al no estar sincronizados los relojes entre el receptor y los satélites, la intersección de las cuatro esferas con centro en estos satélites es un pequeño volumen en vez de ser un punto. La corrección consiste en ajustar la hora del receptor de tal forma que este volumen se transforme en un punto.

Manual de redes

Podemos clasificar las redes en tres tipos diferentes: LAN, MAN y WAN.
Redes de Área Local (LAN)
Son redes de propiedad privada, de hasta unos cuantos kilómetros de extensión. Por ejemplo una oficina o un centro educativo.Se usan para conectar computadoras personales o estaciones de trabajo, con objeto de compartir recursos e intercambiar información.Están restringidas en tamaño, lo cual significa que el tiempo de transmisión, en el peor de los casos, se conoce, lo que permite cierto tipo de diseños ( deterministas ) que de otro modo podrían resultar ineficientes. Además, simplifica la administración de la red.Suelen emplear tecnología de difusión mediante un cable sencillo al que están conectadas todas las máquinas.Operan a velocidades entre 10 y 100 Mbps.Tienen bajo retardo y experimentan pocos errores.
Redes de Área Metropolitana (MAN)
Son una versión mayor de la LAN y utilizan una tecnología muy similar. Actualmente esta clasificación ha caído en desuso, normalmente sólo distinguiremos entre redes LAN y WAN.
Redes de Área Amplia (WAN)
Son redes que se extienden sobre un área geográfica extensa. Contiene una colección de máquinas dedicadas a ejecutar los programas de usuarios (hosts). Estos están conectados por la red que lleva los mensajes de un host a otro. Estas LAN de host acceden a la subred de la WAN por un router. Suelen ser por tanto redes punto a punto.
Conectando la red de area local (LAN)
Si usted tiene mas de un ordenador en casa u oficina, puede armar una red de manera muy fácil, nos da la ventaja de poder compartir impresoras, entrar a internet desde cualquier máquina, etc.Si disponemos solo de dos computadores, la conexión la podemos hacer directa por medio de un cable cruzado que deberá de ser armado por el instalador de la red, es decir sin necesitara de instalar un HUB o un SWITCH por medio, esto tiene la ventaja que es mas económico, simplemente deberemos de conectar el cable cruzado entre ambas tarjetas de red y poner una dirección IP y Mascara a casa una de ellas (vea TCP/IP para saber como se le da la dirección IP a cada máquina). Para tres ordenadores o mas, estaremos forzados a instalar un HUB o SWITCH ( pulse aquí para ver la diferencia entre uno y otro) . En este ultimo caso el cable de conexión de red, lo podemos encontrar en cualquier local comercial, pero daré la descripción de como fabricarlo casero en caso que el cable que precise sea muy largo y no lo encuentre en el mercado.
Note que el conector esta visto de la parte de liza de este, no de la parte que se encuentra el enganche para la tarjeta.En caso de dudas de este manual, puede poner su pregunta en el FORO WEB
COMPROBACIÓN
Primero deberá comprobar que su equipo tenga tarjeta de red, en caso contrario deberá instalar una. Esto es muy fácil ya que los slot internos de las computadoras, son diferente según el tipo de tarjeta y no hay manera de equivocarse en el momento de la instalación. Por lo general, Windows reconoce la tarjeta automáticamente, pero si no lo hace, todas tarjetas de red traen un disco de instalación, así que no tendrá problemas.

Note que hay tres slot blancos(PCI) y dos negros, si la tarjeta de red es moderna, ira en los slot blancos en caso contrario en los negros. Hoy día, las tarjetas que vienen son todas para los slot blancos (PCI). Estas se encuentran dentro del ordenador y en la placa madre.
CABLES CRUZADOS
Para armar un cable cruzado, deberemos tener una pinza para cables RJ-45, dos conectores RJ-45 y por supuesto el cable RJ-45, trate que el cable sea de categoría 5 que es el de mejor calidad, aunque también esta el categoría 6, pero es demasiado caro para instalar en una casa u oficina pequeña.:
Conector 1--- Conector 2
------1------------3
------2------------6
------3------------1
------4------------4
------5------------5
------6------------2
------7------------7
------8------------8
Por colores seria:
Conector 1 ------------Conector 2
Naranja/Blanco ---------Verde/Blanco
Naranja ---------------Verde
Verde/Blanco----------- Naranja/Blanco
Azul ------------------- Azul
Azul/Blanco--------------Azul/Blanco
Verde -------------------Naranja
Marrón/Blanco-----------Marrón/Blanco
Marrón ------------------Marrón
Después de armado el cable cruzado, deberá de conectarlo a las tarjetas de red de ambos computadores, y configurar la red como le explicare mas adelante.Si en el futuro instala un HUB debido a que tiene tres ordenadores o mas, no conecte este cable cruzado al HUB por que el computador que este conectado con este cable no responderá, el cable cruzado solo se usa para la confección de dos ordenadores sin HUB.
CABLE DE RED
Los cables de red los podemos encontrar en el mercado en cualquier tienda que vendan insumos de informática, pero estos son muy cortos para una confección de redes en varios computadores y con una gran separación entre un computador y otro.Con una simple pinza RJ-45, dos conectores RJ-45 y la longitud de cable de red que precisemos, podremos armar nuestro propio cable de red.Para armar un cable de red con una longitud determinada deberemos de conectarlos, en ambas puntas del cable, de la siguiente manera:
1-------Naranja/Blanco
2-------Naranja
3-------Verde/Blanco
4-------Azul
5-------Azul/Blanco
6-------Verde
7-------Marrón/Blanco
8-------Marrón
Note que el cable verde/blanco y verde, no están juntos. El cruzamiento de estos es debido a que todas las tarjetas de red no utilizan los terminales 4 y 5 del conector, estos están reservados para conectar una línea telefónica.Con respecto a la elección del tipo de conector a elegir, puede ser apantallado o no, es decir con un blindaje metálico o sin este.Si nosotros disponemos de una buena descarga a tierra en nuestro computador, conviene poner un conector apantallado, en caso contrario, pondremos sin apantallar. Si ponemos un conector apantallado en una computadora que no disponga de descarga a tierra, las corrientes espuricas quedarían dentro del cable produciendo una interferencia en este que podría afectar a la transferencia de datos.

Bibliografia de :http://www.itu.int/ITU-T/special-projects/ip-policy/final/IPPolicyHandbook-S.pdf

Red de computadoras


Una red de computadoras (también llamada red de ordenadores o red informática) es un conjunto de equipos (
computadoras y/o dispositivos) conectados por medio de cables, señales, ondas o cualquier otro método de transporte de datos, que comparten información (archivos), recursos (CD-ROM, impresoras, etc.) y servicios (acceso a internet, e-mail, chat, juegos), etc.
Para simplificar la comunicación entre programas (aplicaciones) de distintos equipos, se definió el
Modelo OSI por la ISO, el cual especifica 7 distintas capas de abstracción. Con ello, cada capa desarrolla una función específica con un alcance definido.
Intranet
Un Intranet es una red privada en que la tecnología de Internet se usa como arquitectura elemental. Una red interna se construye usando los protocolos TCP/IP para comunicación de Internet, que pueden ejecutarse en muchas de las plataformas de hardware y en proyectos por cable. El hardware fundamental no es lo que construye una Intranet, lo que importa son los protocolos del software. Las Intranets pueden coexistir con otra tecnología de red de área local. En muchas compañías, los "Sistemas Patrimoniales" existentes que incluyen sistemas centrales, redes Novell, mini - ordenadores y varias bases de datos, están integrados en un Intranet. Una amplia variedad de herramientas permite que esto ocurra. El guión de la Interfaz Común de Pasarela (CGI) se usa a menudo para acceder a bases de datos patrimoniales desde una Intranet. El lenguaje de programación Java también puede usarse para acceder a bases de datos patrimoniales.
La seguridad en una Intranet es más complicada de implementar, ya que se trata de brindar seguridad tanto de usuarios externos como internos, que supuestamente deben tener permiso de usar los servicios de la red.
Una Intranet o una Red Interna se limita en alcance a una sola organización o entidad. Generalmente ofrecen servicios como
HTTP, FTP, SMTP, POP3 y otros de uso general.
En una intranet se pueden tener los mismos servicios que en
Internet, pero éstos sólo quedan disponibles para los usuarios de esa red privada, no a los usuarios en general.
PAN
Wireless Personal Area Networks, Red Inalámbrica de Área Personal o Red de área personal o Personal area network es una red de computadoras para la comunicación entre distintos dispositivos (tanto computadoras, puntos de acceso a
internet, teléfonos celulares, PDA, dispositivos de audio, impresoras) cercanos al punto de acceso. Estas redes normalmente son de unos pocos metros y para uso personal, así como fuera de ella.
Red de área local
De Wikipedia, la enciclopedia libre
Saltar a
navegación, búsqueda
Una red de área local, red local o LAN (del inglés Local Area Network) es la interconexión de varios ordenadores y periféricos. Su extensión esta limitada físicamente a un edificio o a un entorno de hasta 200 metros. Su aplicación más extendida es la interconexión de ordenadores personales y estaciones de trabajo en oficinas, fábricas, etc., para compartir recursos e intercambiar datos y aplicaciones. En definitiva, permite que dos o más máquinas se comuniquen.
El término red local incluye tanto el hardware como el software necesario para la interconexión de los distintos dispositivos y el tratamiento de la información.
CAN: Campus Area Network, Red de Area Campus. Una CAN es una colección de LANs dispersadas geográficamente dentro de un campus (universitario, oficinas de
gobierno, maquilas o industrias) pertenecientes a una misma entidad en una área delimitada en kilometros. Una CAN utiliza comúnmente tecnologías tales como FDDI y Gigabit Ethernet para conectividad a través de medios de comunicación tales como fibra óptica y espectro disperso.
MAN
Una red de área metropolitana (Metropolitan Area Network o MAN, en inglés) es una red de alta velocidad (
banda ancha) que dando cobertura en un área geográfica extensa, proporciona capacidad de integración de múltiples servicios mediante la transmisión de datos, voz y vídeo, sobre medios de transmisión tales como fibra óptica y par trenzado (MAN BUCLE), la tecnología de pares de cobre se posiciona como una excelente alternativa para la creación de redes metropolitanas, por su baja latencia (entre 1 y 50ms), gran estabilidad y la carencia de interferencias radioeléctricas, las redes MAN BUCLE, ofrecen velocidades de 10Mbps, 20Mbps, 45Mbps, 75Mbps, sobre pares de cobre y 100Mbps, 1Gbps y 10Gbps mediante Fibra Óptica.
Las Redes MAN BUCLE, se basan en tecnologías Bonding, de forma que los enlaces están formados por múltiples pares de cobre con el fin de ofrecer el ancho de banda necesario.
Además esta tecnología garantice SLAS´S del 99,999, gracias a que los enlaces están formados por múltiples pares de cobre y es materialmente imposible que 4, 8 ó 16 hilos se averíen de forma simultanea.
El concepto de red de área metropolitana representa una evolución del concepto de
red de área local a un ámbito más amplio, cubriendo áreas mayores que en algunos casos no se limitan a un entorno metropolitano sino que pueden llegar a una cobertura regional e incluso nacional mediante la interconexión de diferentes redes de área metropolitana.
WAN
Una Red de Área Amplia (Wide Area Network o WAN, del inglés), es un tipo de
red de computadoras capaz de cubrir distancias desde unos 100km hasta unos 1000 km, dando el servicio a un país o un continente. Un ejemplo de este tipo de redes sería RedIRIS, Internet o cualquier red en la cual no estén en un mismo edificio todos sus miembros (sobre la distancia hay discusión posible). Muchas WAN son construidas por y para una organización o empresa particular y son de uso privado, otras son construidas por los proveedores de Internet (ISP) para proveer de conexión a sus clientes.
Hoy en día Internet proporciona WAN de alta velocidad, y la necesidad de redes privadas WAN se ha reducido drásticamente mientras que las
VPN que utilizan cifrado y otras técnicas para hacer esa red dedicada aumentan continuamente.
Normalmente la WAN es una red punto a punto, es decir, red de paquete conmutado. Las redes WAN pueden usar sistemas de comunicación vía satélite o de radio. Fue la aparición de los portátiles y los
PDA la que trajo el concepto de redes inalámbricas.
Una red de área amplia o WAN (Wide Area Network) se extiende sobre un área geográfica extensa, a veces un país o un continente, y su función fundamental está orientada a la interconexión de redes o equipos terminales que se encuentran ubicados a grandes distancias entre sí. Para ello cuentan con una infraestructura basada en poderosos nodos de conmutación que llevan a cabo la interconexión de dichos elementos, por los que además fluyen un volumen apreciable de información de manera continua. Por esta razón también se dice que las redes WAN tienen carácter público, pues el tráfico de información que por ellas circula proviene de diferentes lugares, siendo usada por numerosos usuarios de diferentes países del mundo para transmitir información de un lugar a otro. A diferencia de las redes
LAN (siglas de "local area network", es decir, "red de área local"), la velocidad a la que circulan los datos por las redes WAN suele ser menor que la que se puede alcanzar en las redes LAN. Además, las redes LAN tienen carácter privado, pues su uso está restringido normalmente a los usuarios miembros de una empresa, o institución, para los cuales se diseñó la red.
La infraestructura de redes WAN la componen, además de los nodos de conmutación, líneas de transmisión de grandes prestaciones, caracterizadas por sus grandes velocidades y ancho de banda en la mayoría de los casos. Las líneas de transmisión (también llamadas "circuitos", "canales" o "troncales") mueven información entre los diferentes nodos que componen la red


Bibliografia de :http://www.monografias.com/trabajos14/tipos-redes/tipos-redes.shtml?monosearch
------------------http://es.wikipedia.org/wiki/Red_de_computadoras

Modelo APA




'
'
'
'
'
'
'
'
'
'
'
'
'
'
'
'
'
Cuando uno inicia una investigación en las Ciencias Sociales, o en Ciencias Aplicadas, el gran obstáculo que tienen las ideas que van naciendo en el proceso de indagación es cómo se normará la estructura del discurso científico para que tenga un sentido homogéneo en relación con trabajos desarrollados en otras partes del mundo. Se dice homogéneo en razón de que su estructura parta de un lenguaje universal que identifique cuál es un título, un subtítulo, una cita textual o un análisis interpretativo de algún autor referido. Las revistas de carácter académico, en el renglón de arbitradas, se valen de estas pre-rogativas estilísticas convirtiéndose en el verdadero dolor de cabeza de un investigador, no porque desconozca el tecnicismo de las normas de fichaje y estilo internacional de trabajos científicos, sino que lo tedioso de algunas normas hace que la originalidad y creatividad de cada investigados desluzca, se esquematice y se pierda en una maraña de conexiones impuestas por el formalismo.
Pero: ¿qué hacer ante tanto consenso científico y frialdad literaria? La respuesta de algunos metodólogos es que se hace necesario partir de una norma internacional que tutele la estructura, entiéndase forma, de las investigaciones científicas. Así como en la edad Media era un requisito en las universidades y seminarios aprender latín para comprender con profundidad los conocimientos de los antiguos y contemporáneos pensadores, hoy día se recurre a sistemas de orientación metodológica para generar artículos o trabajos de grado bajo un estilo general, aplicable a investigaciones cuantitativas como cualitativas. Por nuestra parte coincidimos en la necesidad de una orientación general coherente, pero que a su vez no entorpezca la claridad y originalidad de los estudios de carácter científico. Para entender mejor esta posición comentaremos un tanto las normas de la Asociación de Psicólogos Americanos, conocidas como sistema APA, a las cuales se han adherido un número importante de universidades nacionales, sin embargo, desde nuestra concepción, pensamos que no ha terminado aún de comprenderse el uso real de estas normas que son una postura esquemática, no impositiva o determinante como equivocadamente la asumen los editores de revistas arbitradas.
La historia del Sistema APA, se remonta a 1928 cuando los editores norteamericanos de las revistas científicas antropológicas y psicológicas, se reunieron para estudiar cómo darles una forma a los manuscritos científicos de forma tal que su estilo se acerca a criterios universales de coherencia, claridad y objetividad. El producto final de este encuentro fue un informe que coordinó Madison Bentley, con el auspicio de la Nacional Research Council. Dicho informe fue publicado en el Psychological Bulletin, en 1929, una revista de la American Psychological Association (Asociación de Psicólogos Americanos), cuyas siglas son APA. En el mismo informe se hacia ver que no era un documento normativo-metodológico para imponer preceptos a los investigadores, sino una norma de procedimiento para orientar coherentemente y con claridad, un estilo de redacción científica que simplifique las ideas de las investigaciones y ayude a la tarea de los editores en su clasificación y colocación por orden de criterio y temas, en las revistas científicas de la APA.
Desde 1929 se ha pasado de siete páginas normativas a trescientas sesenta y ocho páginas en 1994; hoy día el Manual de estilo de publicaciones de la APA, se actualiza día a día, pudiendo acceder a través de Internet a su portal www.apastyle.org, donde se proporciona información avanzada acerca de nuevas consideraciones en el manejo del estilo y redacción de los trabajos de corte científico.
El Manual del Sistema APA, versión en lengua española (2da Edición, México, Editorial El Manual Moderno, S.A., 2002: pp.433), está compuesto de nueve capítulos: el capítulo 1, describe procedimientos para organizar el manuscrito científico; el capítulo 2, destaca la importancia del lenguaje en el proceso de comunicación científica, donde debe prevalecer la claridad y concreción de ideas; capítulo 3, es ya propiamente la propuesta del Sistema APA en lo que denominan Estilo Editorial, abarcando la puntuación, ortografía, abreviaturas, material matemático, encabezados, tablas, ilustraciones, notas a pie de página y referencias en el texto; capítulo 4, se describe los componentes de las referencias usuales; capítulo 5, la preparación del manuscrito y documentos de muestra; capítulo 6, se describe cómo preparar una disertación para publicarla como artículo de revista científica; capítulo 7, proporciona instrucciones para los investigadores acerca de la preparación del manuscrito aceptado para su publicación; capítulo 8, se analiza las políticas generales que rigen las revistas científicas de la APA; y el capítulo 9, aborda la bibliografía, más en relación a los documentos y textos de los cuales se vale el Sistema APA para fundamentarse metodológicamente. El Manual incluye unos apéndices explicativos, pero en su intención directa busca servir de guía a los investigadores para que organicen de manera coherente sus investigaciones científicas.
En razón de lo anterior, nos ocuparemos en este ensayo del Manual del Sistema APA en el contexto de sus observaciones acerca de la tipología de los tipos de investigaciones o estudios que debería ser regidos bajo esta norma, así como algunos datos puntuales sobre el proceso de fichaje de la información; dado que nuestra intención es crear un mapa general de las orientaciones normativas que tienen que ver con la propuesta APA y proyectar un esquema particular de trabajar con este sistema, sin que con esa acción desvirtuemos su carácter simplificador y organizativo.
La intencionalidad del Sistema APA es ayudar a los autores a que organicen mejor y más fácilmente sus textos, a continuación se presentan las características de algunos tipos de artículos: Reportes de investigaciones, donde se presentan resultados de investigación, consta de cuatro partes: introducción, sección en la que se plantea el problema y se presenta el propósito, metodología, resultados y, discusión en la cual se interpretan los resultados y se discuten las implicaciones; Artículos de revisión, los cuales son evaluaciones críticas de textos que ya han sido publicados; Artículos teóricos, que presentan una nueva teoría, o se analizan las ya existentes con el fin de argumentar la superioridad de una sobre otras; Artículos metodológicos, en los que se presentan nuevos modelos de investigación, modificaciones o discusiones sobre los ya existentes; y las Monografías, textos que presentan de manera analítica y crítica la información recolectada de distintas fuentes de información sobre un tema determinado.


Espectro Electromagnetico
























Se denomina espectro electromagnético a la distribución energética del conjunto de las ondas electromagnéticas. Referido a un objeto se denomina espectro electromagnético o simplemente espectro a la radiación electromagnética que emite (espectro de emisión) o absorbe (espectro de absorción) una sustancia. Dicha radiación sirve para identificar la sustancia de manera análoga a una huella dactilar. Los espectros se pueden observar mediante espectroscopios que, además de permitir observar el espectro, permiten realizar medidas sobre éste, como la longitud de onda, la frecuencia y la intensidad de la radiación. El espectro electromagnético se extiende desde la radiación de menor longitud de onda, como los rayos gamma y los rayos X, pasando por la luz ultravioleta, la luz visible y los rayos infrarrojos, hasta las ondas electromagnéticas de mayor longitud de onda, como son las ondas de radio. Se cree que el límite para la longitud de onda más pequeña posible es la longitud de Planck mientras que el límite máximo sería el tamaño del Universo (véase Cosmología física) aunque formalmente el espectro electromagnético es infinito y continuo. Rango energético del espectro [editar] El espectro electromagnético cubre longitudes de onda muy variadas. Existen frecuencias de 30 Hz y menores que son relevantes en el estudio de ciertas nebulosas.[1] Por otro lado se conocen frecuencias cercanas a 2,9×1027 Hz, que han sido detectadas provenientes de fuentes astrofísicas.[2] La energía electromagnética en una particular longitud de onda λ (en el vacío) tiene una frecuencia f asociada y una energía de fotón E. Por tanto, el espectro electromagnético puede ser expresado igualmente en cualquiera de esos términos. Se relacionan en las siguientes ecuaciones: , o lo que es lo mismo , o lo que es lo mismo Donde (velocidad de la luz) y es la constante de Planck, . Por lo tanto, las ondas electromagnéticas de alta frecuencia tienen una longitud de onda corta y mucha energía mientras que las ondas de baja frecuencia tienen grandes longitudes de onda y poca energía. Por lo general, las radiaciones electromagnéticas se clasifican en base a su longitud de onda en ondas de radio, microondas, infrarrojos, la región visible – que percibimos como luz visible – ultravioleta, rayos X y rayos gamma. El comportamiento de las radiaciones electromagnéticas depende de su longitud de onda. Cuando la radiación electromagnética interactúa con átomos y moléculas puntuales, su comportamiento también depende de la cantidad de energía por quantum que lleve. A la par que las ondas de sonido, la radiación electromagnética puede dividirse en octavas.[3] La espectroscopía puede detectar una región mucho más amplia del espectro electromagnético que el rango visible de 400 nm a 700 nm. Un espectrómetro de laboratorio común y corriente detecta longitudes de onda de 2 a 2500 nm.



Bibliografia de :http://es.wikipedia.org/wiki/Espectro_electromagn%C3%A9tico




















Muchos son los modelos que se han planteado para la adquisición y práctica de las Competencias para manejar Información (CMI), todas ellas con supuestos teóricos y prácticos bastante equivalentes, aunque, en su mayoría, con mayor validez en los métodos y costumbres de la realidad norteamericana y europea.Por esta razón la Fundación Gabriel Piedrahita Uribe (FGPU) de Colombia hizo un nuevo planteamiento, el Modelo Gavilán, cuyos pasos menciono aquí: PASO 1: DEFINIR EL PROBLEMA DE INFORMACIÓN Y QUÉ SE NECESITA INDAGAR PARA RESOLVERLO a) Definir el Problema de Información y plantear la Pregunta Inicial que pueda ayudar a resolverlo b) Identificar, explorar y relacionar los conceptos y aspectos del tema necesarios para responder la Pregunta Inicial. c) Construir el diagrama de un Plan de Investigación que ayude a seleccionar y categorizar los conceptos y aspectos del tema más importantes para resolver la Pregunta Inicial. d) Formular Preguntas Secundarias derivadas de la Pregunta Inicial y del Plan de Investigación. e) Evaluación del paso 1. PASO 2: BUSCAR Y EVALUAR FUENTES DE INFORMACIÓN a) Identificar y seleccionar las fuentes de información más adecuadas. b) Acceder a las fuentes seleccionadas y a la información que contienen. c) Evaluar las fuentes encontradas y la información que contienen. d) Evaluación paso 2. PASO 3: ANALIZAR LA INFORMACIÓN a) Elegir la información más adecuada para resolver las Preguntas Secundarias. b) Leer, entender, comparar, y evaluar la información seleccionada. c) Responder las Preguntas Secundarias. d) Evaluación paso 3. PASO 4: SINTETIZAR Y UTILIZAR LA INFORMACIÓN a) Recopilar las respuestas a las Preguntas Secundarias para resolver la Pregunta Inicial. b) Elaborar un producto concreto que exija aplicar y utilizar los resultados de la investigación. c) Comunicar los resultados de la investigación a otros. d) Evaluación del paso 4 y de todo el proceso. La Fundación Gabriel Piedrahita plantea que el Modelo Gavilán, creado por ellos, más allá de ser otro Modelo más para resolver Problemas de Información, ofrece a los profesores, en el orden de sus pasos y subpasos, una orientación adecuada para plantear actividades en el aula que permitan desarrollar efectivamente en los alumnos la CMI.En cada uno de los cuatro pasos propuestos resalta una capacidad general que se debe desarrollar en los estudiantes.Además, cada paso posee una serie de subpasos que describen las habilidades específicas que se deben poner en práctica con los alumnos para desarrollar dicha capacidad. Otro aporte fundamental es lo que yo llamo la “constante evaluativa del modelo”, ya que al incorporar una evaluación al final de cada paso, convierte a ésta en un hecho permanente que brinda amplia información a lo largo del proceso y no solo al final del mismo, como ocurre en otras propuestas. Significativo es para mí que esta evaluación, bien ejecutada, tiene un fuerte componente metacognitivo.Hay quienes sostienen, incluso, que los tres primeros pasos del modelo, con una adecuada planificación, podrían ejecutarse en actividades totalmente independientes unas de otras, lo que en mi opinión, no resulta muy recomendable, pero hago notar la flexibilidad de esta metodología que es capaz de hacer posible ello,Para ayudar en la implementación de esta estrategia se sugiere la utilización de Plantillas, Listas de verificación, Organizadores gráficos y Listados de criterios, que exigen al estudiante registrar cada una de sus acciones, clarificar conceptos, organizar sus ideas, justificar sus decisiones, aplicar conocimientos y habilidades y hacer una reflexión conciente sobre lo que está haciendo. La Fundación Gabriel Piedrahita Uribe ha publicado en su sitio web Eduteka una completa guía de aplicación del Modelo, con ejemplos y glosario incluido. Sin lugar a dudas un extraordinario aporte que debemos conocer y practicar. Temas relacionados: Aprendizaje por Proyectos y Emprendimiento: Un par de ideas para empezar a convencer.Aprendizaje por proyectos: El Modelo Big 6. prof. Benedicto González Vargas Esta entrada fué posteada el Martes 3 de Abril de 2007 a las 3:44 am y está archivado bajo Aprendizaje por Proyectos, Educación, Modelos C.M.I.. Puedes seguir las respuestas de esta entrada a través de sindicación RSS 2.0. Puedes dejar una respuesta, o trackback desde tu propio sitio.

Bibliografia de :http://www.eduteka.org/

IMAGENES

















RUTEADOR

Enrutador (en inglés: router), ruteador o encaminador es un dispositivo de hardware para interconexión de red de ordenadores que opera en la capa tres (nivel de red). Este dispositivo permite asegurar el enrutamiento de paquetes entre redes o determinar la ruta que debe tomar el paquete de datos.



















CONCENTRADOR
Un concentrador o hub es un dispositivo que permite centralizar el cableado de una red y poder ampliarla. Esto significa que dicho dispositivo recibe una señal y repite esta señal emitiéndola por sus diferentes puertos.
Contenido

Un concentrador funciona repitiendo cada paquete de datos en cada uno de los puertos con los que cuenta, excepto en el que ha recibido el paquete, de forma que todos los puntos tienen acceso a los datos. También se encarga de enviar una señal de choque a todos los
puertos si detecta una colisión. Son la base para las redes de topología tipo estrella. Como alternativa existen los sistemas en los que los ordenadores están conectados en serie, es decir, a una línea que une varios o todos los ordenadores entre sí, antes de llegar al ordenador central. Llamado también repetidor multipuerto, existen 3 clases.
Pasivo: No necesita energía eléctrica.
Activo: Necesita alimentación.
Inteligente: También llamados smart hubs son hubs activos que incluyen microprocesador.




















PUENTE DE APLICACION

En informática, un puente de aplicación o application bridge es el código que conecta diferentes entornos de un lenguaje con otros lenguajes.
Los puentes, delimitan el tráfico entre redes a las redes que tiene acceso directo y deben preservar las características de las LANs que interconectan (retardo de transmisión, capacidad de transmisión, probabilidad de pérdida, etc.).
La conexión es utilizada exclusivamente para transmitir llamadas a métodos con sus propios parámetros y retornar los valores de un entorno de lenguaje a otro. Por ejemplo, se necesita un puente para acceder desde Delphi a la API de OpenOffice.org.

Bibliografia de :http://www.wikipedia.org/



Definiciones

¿QUE ES EL IEEE?'



IEEE corresponde a las siglas de The Institute of Electrical and Electronics Engineers, el Instituto de Ingenieros Eléctricos y Electrónicos, una asociación técnico-profesional mundial dedicada a la estandarización, entre otras cosas. Es la mayor asociación internacional sin fines de lucro formada por profesionales de las nuevas tecnologías, como ingenieros eléctricos, ingenieros en electrónica, científicos de la computación, ingenieros en informática e ingenieros en telecomunicación.
Su creación se remonta al año
1884, contando entre sus fundadores a personalidades de la talla de Thomas Alva Edison, Alexander Graham Bell y Franklin Leonard Pope. En 1963 adoptó el nombre de IEEE al fusionarse asociaciones como el AIEE (American Institute of Electrical Engineers) y el IRE (Institute of Radio Engineers).
A través de sus miembros, más de 360.000 voluntarios en 175 países, el IEEE es una autoridad líder y de máximo prestigio en las áreas técnicas derivadas de la eléctrica original: desde ingeniería computacional, tecnologías biomédica y aeroespacial, hasta las áreas de energía eléctrica, control, telecomunicaciones y electrónica de consumo, entre otras.
Según el mismo IEEE, su trabajo es promover la creatividad, el desarrollo y la integración, compartir y aplicar los avances en las tecnologías de la información, electrónica y ciencias en general para beneficio de la humanidad y de los mismos profesionales. Algunos de sus estándares son:
VHDL
POSIX
IEEE 1394
IEEE 488
IEEE 802
IEEE 802.11
IEEE 754
IEEE 830
Mediante sus actividades de publicación técnica, conferencias y estándares basados en consenso, el IEEE produce más del 30% de la literatura publicada en el mundo sobre ingeniería eléctrica, en computación, telecomunicaciones y tecnología de control, organiza más de 350 grandes conferencias al año en todo el mundo, y posee cerca de 900 estándares activos, con otros 700 más bajo desarrollo.



¿QUE ES EL NIC?
NIC (internet)

Network Information Center o Centro de Información sobre la Red, más conocido por su
acrónimo NIC, es un grupo de personas, una entidad o una institución encargada de asignar dominios de internet bajo su dominio de red sean genéricos o de países, a personas naturales o empresas que mediante un DNS pueden montar sitios de Internet mediante un proveedor de hospedaje.
Básicamente existe un NIC por cada país en el mundo y ese NIC es el responsable por todos los dominios con terminación correspondiente a dicho país, por ejemplo: NIC México es el encargado de todos los dominios con terminación .mx, la cual es la terminación correspondiente a dominios de México.


¿QUE ES EL HTTP?

Hypertext Transfer Protocol
El protocolo de transferencia de hipertexto (HTTP, HyperText Transfer Protocol) es el protocolo usado en cada transacción de la Web (WWW). HTTP fue desarrollado por el consorcio W3C y la IETF, colaboración que culminó en 1999 con la publicación de una serie de RFC, siendo el más importante de ellos el RFC 2616, que especifica la versión 1.1.
HTTP define la sintaxis y la semántica que utilizan los elementos software de la arquitectura web (clientes, servidores,
proxies) para comunicarse. Es un protocolo orientado a transacciones y sigue el esquema petición-respuesta entre un cliente y un servidor. Al cliente que efectúa la petición (un navegador o un spider) se lo conoce como "user agent" (agente del usuario). A la información transmitida se la llama recurso y se la identifica mediante un URL. Los recursos pueden ser archivos, el resultado de la ejecución de un programa, una consulta a una base de datos, la traducción automática de un documento, etc.
HTTP es un protocolo sin estado, es decir, que no guarda ninguna información sobre conexiones anteriores. El desarrollo de aplicaciones web necesita frecuentemente mantener estado. Para esto se usan las
cookies, que es información que un servidor puede almacenar en el sistema cliente. Esto le permite a las aplicaciones web instituir la noción de "sesión", y también permite rastrear usuarios ya que las cookies pueden guardarse en el cliente por tiempo indeterminado.
¿QUE ES EL DNS?
'

Domain Name System



El Domain Name System (DNS) es una base de datos distribuida y jerárquica que almacena información asociada a nombres de dominio en redes como Internet. Aunque como base de datos el DNS es capaz de asociar diferentes tipos de información a cada nombre, los usos más comunes son la asignación de nombres de dominio a direcciones IP y la localización de los servidores de correo electrónico de cada dominio.
La asignación de nombres a direcciones IP es ciertamente la función más conocida de los protocolos DNS. Por ejemplo, si la dirección IP del sitio
FTP de prox.mx es 200.64.128.4, la mayoría de la gente llega a este equipo especificando ftp.prox.mx y no la dirección IP. Además de ser más fácil de recordar, el nombre es más fiable. La dirección numérica podría cambiar por muchas razones, sin que tenga que cambiar el nombre.
Inicialmente, el DNS nació de la necesidad de recordar fácilmente los nombres de todos los servidores conectados a Internet. En un inicio, SRI (ahora
SRI International) alojaba un archivo llamado HOSTS que contenía todos los nombres de dominio conocidos (técnicamente, este archivo aún existe - la mayoría de los sistemas operativos actuales todavía pueden ser configurados para revisar su archivo hosts). El crecimiento explosivo de la red causó que el sistema de nombres centralizado en el archivo HOSTS no resultara práctico y en 1983, Paul Mockapetris publicó los RFCs 882 y 883 definiendo lo que hoy en día ha evolucionado el DNS moderno. (Estos RFCs han quedado obsoletos por la publicación en 1987 de los RFCs 1034 y 1035).
Componentes
Para la operación práctica del sistema DNS se utilizan tres componentes principales:
Los Clientes DNS: Un programa cliente DNS que se ejecuta en la computadora del usuario y que genera peticiones DNS de resolución de nombres a un servidor DNS (Por ejemplo: ¿Qué dirección IP corresponde a nombre.dominio?);
Los Servidores DNS: Que contestan las peticiones de los clientes. Los servidores recursivos tienen la capacidad de reenviar la petición a otro servidor si no disponen de la dirección solicitada.
Y las Zonas de autoridad, porciones del espacio de nombres de dominio que almacenan los datos. Cada zona de autoridad abarca al menos un dominio y posiblemente sus subdominios, si estos últimos no son delegados a otras zonas de autoridad.
¿QUE ES EL DOMINIO?
Dominio (redes informáticas)
Un dominio es un conjunto de ordenadores conectados en una red que confían a uno de los equipos de dicha red la administración de los usuarios y los privilegios que cada uno de los usuarios tiene en dicha red.

Controlador de dominio
El
controlador de dominio es un solo equipo si la red es pequeña. Cuando la red es grande (más de 30 equipos con sus respectivos periféricos y más de 30 usuarios) suele ser necesario un segundo equipo dependiente del primero al que llamaremos subcontrolador de dominio. Usaremos este equipo para descargar en él parte de las tareas del controlador de dominio (a esto se le llama balance de carga). Cuando las redes son muy grandes es mejor dividirlas en subdominios, con controladores diferentes.
Los controladores y subcontroladores de dominio «sirven» a los usuarios y a los ordenadores de la red para otras tareas como resolver las direcciones
DNS, almacenar las carpetas de los usuarios, hacer copias de seguridad, almacenar software de uso común, etc. Por ello a estos equipos se les llama también servidores.

Windows y los dominios
En Windows, puede haber redes sin dominio, son los llamados grupos de trabajo (workgroup). En estas redes ningún equipo ejerce un dominio sobre los usuarios por lo que cada usuario ha de ser dado de alta en cada equipo que vaya a utilizar. Esto es poco práctico y sólo es útil en redes pequeñas en las que hay un solo usuario para cada equipo. En estas redes si puede haber servidores: por ejemplo, uno de los ordenadores de la red puede tener dos discos duros de gran capacidad para almacenar las carpetas de los usuarios en uno de ellos y para hacer una copia de seguridad periódica en el otro; otro equipo puede guardar software de uso común; etc.

¿QUE ES EL WWW?


En informática, World Wide Web (o la "Web") o Red Global Mundial es un sistema de documentos de hipertexto y/o hipermedios enlazados y accesibles a través de Internet. Con un navegador Web, un usuario visualiza páginas web que pueden contener texto, imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.
La Web fue creada alrededor de
1989 por el inglés Tim Berners-Lee y el belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas Web), y en los últimos años ha abogado por su visión de una Web Semántica.

Funcionamiento de la Web

La visualización de una página web de la World Wide Web normalmente comienza tecleando la URL de la página en el navegador web, o siguiendo un enlace de hipertexto a esa página o recurso. En ese momento el navegador comienza una serie de comunicaciones, transparentes para el usuario, para obtener los datos de la página y visualizarla.Cuando se utiliza bastante en empresas
El primer paso consiste en traducir la parte del nombre del servidor de la URL en una
dirección IP usando la base de datos distribuida de Internet conocida como DNS. Esta dirección IP es necesaria para contactar con el servidor web y poder enviarle paquetes de datos.
El siguiente paso es enviar una petición
HTTP al servidor Web solicitando el recurso. En el caso de una página web típica, primero se solicita el texto HTML y luego es inmediatamente analizado por el navegador, el cual, después, hace peticiones adicionales para los gráficos y otros ficheros que formen parte de la página. Las estadísticas de popularidad de un sitio web normalmente están basadas en el número de 'páginas vistas' o las 'peticiones' de servidor asociadas, o peticiones de fichero, que tienen lugar.
Al recibir los ficheros solicitados desde el servidor web, el navegador
renderiza la página tal y como se describe en el código HTML, el CSS y otros lenguajes web. Al final se incorporan las imágenes y otros recursos para producir la página que ve el usuario en su pantalla.
La mayoría de las páginas web contienen
hiperenlaces a otras páginas relacionadas y algunas también contienen descargas, documentos fuente, definiciones y otros recursos web.
Esta colección de recursos útiles y relacionados, interconectados a través de enlaces de hipertexto, es lo que ha sido denominado como 'red' (web, en inglés) de información. Al trasladar esta idea a Internet, se creó lo que Tim Berners-Lee llamó WorldWideWeb (un término escrito en
CamelCase, posteriormente desechado) en 1990.[1]
si un usuario accede de nuevo a una página después de un pequeño intervalo, es probable que no se vuelvan a recuperar los datos del servidor web de la forma en que se explicó en el apartado anterior. Por defecto, los navegadores almacenan en una caché del disco duro local todos los recursos web a los que el usuario va accediendo. El navegador enviará una petición HTTP sólo si la página ha sido actualizada desde la última carga, en otro caso, la versión almacenada se reutilizará en el paso de renderizado para agilizar la visualización de la página.
Bibliografia de :http://www.wikipedia.org/

lunes, 2 de marzo de 2009

Historia del internet

Bibliografia de :http://www.youtube.com/

Topología de red




La topología de red o forma lógica de red se define como la cadena de comunicación que los nodos que conforman una red usan para comunicarse. Un ejemplo claro de esto es la topología de árbol, la cual es llamada así por su apariencia estética, la cual puede comenzar con la inserción del servicio de internet desde el proveedor, pasando por el router, luego por un switch y este deriva a otro switch u otro router o sencillamente a los hosts (estaciones de trabajo, pc o como quieran llamarle), el resultado de esto es una red con apariencia de árbol porque desde el primer router que se tiene se ramifica la distribución de internet dando lugar a la creación de nuevas redes y/o subredes tanto internas como externas. Además de la topología estética, se puede dar una topología lógica a la red y eso dependerá de lo que se necesite en el momento.
En algunos casos se puede usar la palabra arquitectura en un sentido relajado para hablar a la vez de la disposición física del cableado y de cómo el protocolo considera dicho cableado. Así, en un anillo con una MAU podemos decir que tenemos una topología en anillo, o de que se trata de un anillo con topología en estrella.
La topología de red la determina únicamente la configuración de las conexiones entre nodos. La distancia entre los nodos, las interconexiones físicas, las tasas de transmisión y/o los tipos de señales no pertenecen a la topología de la red, aunque pueden verse afectados por la misma.
Tipos de arquitecturas

Redes centralizadas

La topología en estrella es la posibilidad de fallo de red conectando todos los nodos a un nodo central. Cuando se aplica a una red basada en la topología estrella este concentrador central reenvía todas las transmisiones recibidas de cualquier nodo periférico a todos los nodos periféricos de la red, algunas veces incluso al nodo que lo envió. Todos los nodos periféricos se pueden comunicar con los demás transmitiendo o recibiendo del nodo central solamente. Un fallo en la línea de conexión de cualquier nodo con el nodo central provocaría el aislamiento de ese nodo respecto a los demás, pero el resto de sistemas permanecería intacto. El tipo de concentrador hub se utiliza en esta topología.
La desventaja radica en la carga que recae sobre el nodo central. La cantidad de tráfico que deberá soportar es grande y aumentará conforme vayamos agregando más nodos periféricos, lo que la hace poco recomendable para redes de gran tamaño. Además, un fallo en el nodo central puede dejar inoperante a toda la red. Esto último conlleva también una mayor vulnerabilidad de la red, en su conjunto, ante ataques.
Si el nodo central es pasivo, el nodo origen debe ser capaz de tolerar un eco de su transmisión. Una red en estrella activa tiene un nodo central activo que normalmente tiene los medios para prevenir problemas relacionados con el eco.
Una topología en árbol (también conocida como topología jerárquica) puede ser vista como una colección de redes en estrella ordenadas en una jerarquía. Éste árbol tiene nodos periféricos individuales (por ejemplo hojas) que requieren transmitir a y recibir de otro nodo solamente y no necesitan actuar como repetidores o regeneradores. Al contrario que en las redes en estrella, la función del nodo central se puede distribuir.
Como en las redes en estrella convencionales, los nodos individuales pueden quedar aislados de la red por un fallo puntual en la ruta de conexión del nodo. Si falla un enlace que conecta con un nodo hoja, ese nodo hoja queda aislado; si falla un enlace con un nodo que no sea hoja, la sección entera queda aislada del resto.
Para aliviar la cantidad de tráfico de red que se necesita para retransmitir todo a todos los nodos, se desarrollaron nodos centrales más avanzados que permiten mantener un listado de las identidades de los diferentes sistemas conectados a la red. Éstos switches de red “aprenderían” cómo es la estructura de la red transmitiendo paquetes de datos a todos los nodos y luego observando de dónde vienen los paquetes respuesta.

Descentralización

En una topología en malla, hay al menos tres nodos con dos o más caminos entre ellos.
Un tipo especial de malla en la que se limite el número de saltos entre dos nodos, es un hipercubo. El número de caminos arbitrarios en las redes en malla, las hace más difíciles de diseñar e implementar, pero su naturaleza descentralizada las hace muy útiles.
Una red totalmente conectada o completa, es una topología de red en la que hay un enlace directo entre cada pareja de nodos posibles. En una red totalmente conectada, hay enlaces directos. Las redes diseñadas con esta topología, normalmente son caras de instalar, pero son muy confiables gracias a los múltiples caminos por los que los datos pueden viajar. Se ve principalmente en instalaciones. que han sido militarizadas

Bibliografia de :http://www.wikipedia.org/

---------------:http://www.monografias.com/