jueves, 13 de mayo de 2010
Pasarelas de aplicaciones
Una pasarela de aplicación (gateway) es un sistema de hardware/software para conectar dos redes entre sí y para que funcionen como una interfaz entre diferentes protocolos de red.
Cuando un usuario remoto contacta la pasarela, ésta examina su solicitud. Si dicha solicitud coincide con las reglas que el administrador de red ha configurado, la pasarela crea una conexión entre las dos redes. Por lo tanto, la información no se transmite directamente, sino que se traduce para garantizar una continuidad entre los dos protocolos.
El sistema ofrece (además de una interfaz entre dos tipos de redes diferentes), seguridad adicional, dado que toda la información se inspecciona minuciosamente (lo cual puede generar demora) y en ocasiones se guarda en un registro de eventos.
La principal desventaja de este sistema es que debe haber una aplicación de este tipo disponible para cada servicio (FTP, HTTP, Telnet, etc.).
Cuando un usuario remoto contacta la pasarela, ésta examina su solicitud. Si dicha solicitud coincide con las reglas que el administrador de red ha configurado, la pasarela crea una conexión entre las dos redes. Por lo tanto, la información no se transmite directamente, sino que se traduce para garantizar una continuidad entre los dos protocolos.
El sistema ofrece (además de una interfaz entre dos tipos de redes diferentes), seguridad adicional, dado que toda la información se inspecciona minuciosamente (lo cual puede generar demora) y en ocasiones se guarda en un registro de eventos.
La principal desventaja de este sistema es que debe haber una aplicación de este tipo disponible para cada servicio (FTP, HTTP, Telnet, etc.).
Tarjeta de red
Una tarjeta de red permite la comunicación entre diferentes aparatos conectados entre si y también permite compartir recursos entre dos o más equipos (discos duros, CD-ROM, impresoras, etc). A las tarjetas de red también se les llama adaptador de red o NIC (Network Interface Card, Tarjeta de Interfaz de Red en español). Hay diversos tipos de adaptadores en función del tipo de cableado o arquitectura que se utilice en la red (coaxial fino, coaxial grueso, Token Ring, etc.), pero actualmente el más común es del tipo Ethernet utilizando un interfaz o conector RJ-45.
Aunque el término tarjeta de red se suele asociar a una tarjeta de expansión insertada en una ranura interna de un computador o impresora, se suele utilizar para referirse también a dispositivos integrados (del inglés embebed) en la placa madre del equipo, como las interfaces presentes en la videoconsola Xbox o los notebooks. Igualmente se usa para expansiones con el mismo fin que en nada recuerdan a la típica tarjeta con chips y conectores soldados, como la interfaz de red para la Sega Dreamcast, las PCMCIA, o las tarjetas con conector y factor de forma CompactFlash y Secure Digital SIO utilizados en PDAs
Cada tarjeta de red tiene un número de identificación único de 48 bits, en hexadecimal llamado dirección MAC (no confundir con Apple Macintosh). Estas direcciones hardware únicas son administradas por el Institute of Electronic and Electrical Engineers (IEEE). Los tres primeros octetos del número MAC son conocidos como OUI e identifican a proveedores específicos y son designados por la IEEE.
Se denomina también NIC al chip de la tarjeta de red que se encarga de servir como interfaz de Ethernet entre el medio físico (por ejemplo un cable coaxial) y el equipo (por ejemplo un ordenador personal o una impresora). . Es un chip usado en computadoras o periféricos tales como las tarjetas de red, impresoras de red o sistemas intergrados (embebed en inglés), para conectar dos o más dispositivos entre sí a través de algún medio, ya sea conexión inalámbrica , cable UTP, cable coaxial, fibra óptica, etcétera.
La mayoría de tarjetas traen un zócalo vacío rotulado BOOT ROM, para incluir una ROM opcional que permite que el equipo arranque desde un servidor de la red con una imagen de un medio de arranque (generalmente un disquete), lo que permite usar equipos sin disco duro ni unidad de disquete. El que algunas placas madre ya incorporen esa ROM en su BIOS y la posibilidad de usar tarjetas CompactFlash en lugar del disco duro con sólo un adaptador, hace que comience a ser menos frecuente, principalmente en tarjetas de perfil bajo.
Aunque el término tarjeta de red se suele asociar a una tarjeta de expansión insertada en una ranura interna de un computador o impresora, se suele utilizar para referirse también a dispositivos integrados (del inglés embebed) en la placa madre del equipo, como las interfaces presentes en la videoconsola Xbox o los notebooks. Igualmente se usa para expansiones con el mismo fin que en nada recuerdan a la típica tarjeta con chips y conectores soldados, como la interfaz de red para la Sega Dreamcast, las PCMCIA, o las tarjetas con conector y factor de forma CompactFlash y Secure Digital SIO utilizados en PDAs
Cada tarjeta de red tiene un número de identificación único de 48 bits, en hexadecimal llamado dirección MAC (no confundir con Apple Macintosh). Estas direcciones hardware únicas son administradas por el Institute of Electronic and Electrical Engineers (IEEE). Los tres primeros octetos del número MAC son conocidos como OUI e identifican a proveedores específicos y son designados por la IEEE.
Se denomina también NIC al chip de la tarjeta de red que se encarga de servir como interfaz de Ethernet entre el medio físico (por ejemplo un cable coaxial) y el equipo (por ejemplo un ordenador personal o una impresora). . Es un chip usado en computadoras o periféricos tales como las tarjetas de red, impresoras de red o sistemas intergrados (embebed en inglés), para conectar dos o más dispositivos entre sí a través de algún medio, ya sea conexión inalámbrica , cable UTP, cable coaxial, fibra óptica, etcétera.
La mayoría de tarjetas traen un zócalo vacío rotulado BOOT ROM, para incluir una ROM opcional que permite que el equipo arranque desde un servidor de la red con una imagen de un medio de arranque (generalmente un disquete), lo que permite usar equipos sin disco duro ni unidad de disquete. El que algunas placas madre ya incorporen esa ROM en su BIOS y la posibilidad de usar tarjetas CompactFlash en lugar del disco duro con sólo un adaptador, hace que comience a ser menos frecuente, principalmente en tarjetas de perfil bajo.
Switch
Un switch es un dispositivo de propósito especial diseñado para resolver problemas de rendimiento de la red, problemas de congestión y embotellamientos. El switch puede agregar mayor ancho de banda, acelerar la salida de tramas, reducir tiempo de espera y actualmente el costo por puerto tiende a bajar (costo económico). Opera generalmente en la capa 2 del modelo OSI4 (también existen de capa 3 y últimamente multicapas), reenvía las tramas en base a la dirección MAC5.
La Tecnología basada en switch denominada también LAN Switching, ofrece métodos eficaces para optimizar sustancialmente el uso del ancho de banda de una red (proporciona gran cantidad de ancho de banda agregado) al asignar un ancho de banda dedicado a cada equipo terminal a diferencia de una red LAN compartida. Reduce los cuellos de botella, además de contar con una velocidad de reenvió de tramas muy elevada (baja latencia6), soporte a conexiones full duplex, soporte de conexiones 10/100/1000 Mbps. (Megabits por segundo) y con un coste económico muy bajo por puerto del switch.
Si un equipo terminal envía un mensaje a otro de la red mediante el switch, este solo será enviado al equipo receptor y no así a toda la red (como lo hacen los Hubs), evitando colisiones en ese instante con otros equipos7.
Una red 10BaseT8 conmutada con 20 equipos, cuenta con 10Mbps. cada equipo, teniendo entonces una capacidad de tráfico total de 200Mbps. En caso de usar 100BaseT9 se tendría con 20 equipos además de contar con comunicación full dúplex (2000 * 2) una capacidad de 4000Mbps. de rendimiento total (Throughput10), en el mejor de los casos.
La Tecnología basada en switch denominada también LAN Switching, ofrece métodos eficaces para optimizar sustancialmente el uso del ancho de banda de una red (proporciona gran cantidad de ancho de banda agregado) al asignar un ancho de banda dedicado a cada equipo terminal a diferencia de una red LAN compartida. Reduce los cuellos de botella, además de contar con una velocidad de reenvió de tramas muy elevada (baja latencia6), soporte a conexiones full duplex, soporte de conexiones 10/100/1000 Mbps. (Megabits por segundo) y con un coste económico muy bajo por puerto del switch.
Si un equipo terminal envía un mensaje a otro de la red mediante el switch, este solo será enviado al equipo receptor y no así a toda la red (como lo hacen los Hubs), evitando colisiones en ese instante con otros equipos7.
Una red 10BaseT8 conmutada con 20 equipos, cuenta con 10Mbps. cada equipo, teniendo entonces una capacidad de tráfico total de 200Mbps. En caso de usar 100BaseT9 se tendría con 20 equipos además de contar con comunicación full dúplex (2000 * 2) una capacidad de 4000Mbps. de rendimiento total (Throughput10), en el mejor de los casos.
Segmento de red
Un segmento de red suele ser definido mediante la configuración del hardware (comúnmente por router o switch) o una dirección de red específica. Por ejemplo, en el entorno Novell NetWare, en un segmento de red se incluyen todas las estaciones de trabajo conectadas a una tarjeta de interfaz de red de un servidor y cada segmento tiene su propia dirección de red.
Una gran red en una organización puede estar compuesta por muchos segmentos de red conectados a la LAN principal llamada backbone, que existe para comunicar los segmentos entre sí.
Una gran red en una organización puede estar compuesta por muchos segmentos de red conectados a la LAN principal llamada backbone, que existe para comunicar los segmentos entre sí.
Red Telefónica Conmutada
Se define la Red Telefónica Básica (RTB) como los conjuntos de elementos constituido por todos los medios de transmisión y conmutación necesarios que permite enlazar a voluntad dos equipos terminales mediante un circuito físico que se establece específicamente para la comunicación y que desaparece una vez que se ha completado la misma. Se trata por tanto, de una red de telecomunicaciones conmutada.
Funcionamiento
La Red Telefónica Conmutada (RTC; también llamada Red Telefónica Básica o RTB) es una red de comunicación diseñada primordialmente para la transmisión de voz, aunque pueda también transportar datos, por ejemplo en el caso del fax o de la conexión a Internet a través de un módem acústico.
Se trata de la red telefónica clásica, en la que los terminales telefónicos (teléfonos) se comunican con una central de conmutación a través de un solo canal compartido por la señal del micrófono y del auricular. En el caso de transmisión de datos hay una sola señal en el cable en un momento dado compuesta por la de subida más la de bajada, por lo que se hacen necesarios supresores de eco.
La voz va en banda base, es decir sin modulación (la señal producida por el micrófono se pone directamente en el cable).
Las señales de control (descolgar, marcar y colgar) se realizaban, desde los principios de la telefonía automática, mediante aperturas y cierre del bucle de abonado. En la actualidad, las operaciones de marcado ya no se realizan por apertura y cierre del bucle, sino mediante tonos que se envían por el terminal telefónico a la central a través del mismo par de cable que la conversación.
En los años 70 se produjo un creciente proceso de digitalización influyendo en los sistemas de transmisión, en las centrales de conmutación de la red telefónica, manteniendo el bucle de abonados de manera analógica. Por lo tanto cuando la señal de voz, señal analógica llega a las centrales que trabajan de manera digital aparece la necesidad de digitalizar la señal de voz.
El sistema de codificación digital utilizado para digitalizar la señal telefónica fue la técnica de modulación por impulsos codificados, cuyos parámetros de digitalización son:
* Frecuencia de muestreo:8000 Hz
* Número de bits: 8
* Ley A (Europa)
* Ley µ (USA y Japón)
El tratamiento que se aplica a la señal analógica es: filtrado, muestreo y codificación de las muestras. La frecuencia de muestreo Fs es siempre superior a la Nyquist.
Funcionamiento
La Red Telefónica Conmutada (RTC; también llamada Red Telefónica Básica o RTB) es una red de comunicación diseñada primordialmente para la transmisión de voz, aunque pueda también transportar datos, por ejemplo en el caso del fax o de la conexión a Internet a través de un módem acústico.
Se trata de la red telefónica clásica, en la que los terminales telefónicos (teléfonos) se comunican con una central de conmutación a través de un solo canal compartido por la señal del micrófono y del auricular. En el caso de transmisión de datos hay una sola señal en el cable en un momento dado compuesta por la de subida más la de bajada, por lo que se hacen necesarios supresores de eco.
La voz va en banda base, es decir sin modulación (la señal producida por el micrófono se pone directamente en el cable).
Las señales de control (descolgar, marcar y colgar) se realizaban, desde los principios de la telefonía automática, mediante aperturas y cierre del bucle de abonado. En la actualidad, las operaciones de marcado ya no se realizan por apertura y cierre del bucle, sino mediante tonos que se envían por el terminal telefónico a la central a través del mismo par de cable que la conversación.
En los años 70 se produjo un creciente proceso de digitalización influyendo en los sistemas de transmisión, en las centrales de conmutación de la red telefónica, manteniendo el bucle de abonados de manera analógica. Por lo tanto cuando la señal de voz, señal analógica llega a las centrales que trabajan de manera digital aparece la necesidad de digitalizar la señal de voz.
El sistema de codificación digital utilizado para digitalizar la señal telefónica fue la técnica de modulación por impulsos codificados, cuyos parámetros de digitalización son:
* Frecuencia de muestreo:8000 Hz
* Número de bits: 8
* Ley A (Europa)
* Ley µ (USA y Japón)
El tratamiento que se aplica a la señal analógica es: filtrado, muestreo y codificación de las muestras. La frecuencia de muestreo Fs es siempre superior a la Nyquist.
IEEE 802
IEEE 802 es un estudio de estándares perteneciente al Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), que actúa sobre Redes de Ordenadores, concretamente y según su propia definición sobre redes de área local (RAL, en inglés LAN) y redes de área metropolitana (MAN en inglés). También se usa el nombre IEEE 802 para referirse a los estándares que proponen, y algunos de los cuales son muy conocidos: Ethernet (IEEE 802.3), o Wi-Fi (IEEE 802.11), incluso está intentando estandarizar Bluetooth en el 802.15.
Se centra en definir los niveles más bajos (según el modelo de referencia OSI o sobre cualquier otro modelo), concretamente subdivide el segundo nivel, el de enlace, en dos subniveles, el de enlace lógico, recogido en 802.2, y el de acceso al medio. El resto de los estándares recogen tanto el nivel físico, como el subnivel de acceso al medio.
Se centra en definir los niveles más bajos (según el modelo de referencia OSI o sobre cualquier otro modelo), concretamente subdivide el segundo nivel, el de enlace, en dos subniveles, el de enlace lógico, recogido en 802.2, y el de acceso al medio. El resto de los estándares recogen tanto el nivel físico, como el subnivel de acceso al medio.
Conexion con CAble UTP
Paso 1
Un cable de conexión cruzado
Paso 2
Se conectan las computadoras
Paso 3
En las propiedades del sistema ver si las computadoras están en el mismo grupo de trabajo
Paso 4
Ir a panel de control red y propiedades
Paso 5
IR a propiedades del protocolo de internet TCP/IP
Ponemos una dirección ip y en la siguiente computadora la misma ip pero con el siguiente numero después de la anterior
Paso 6
Hasta aquí tenemos la conexión solo ver si estamos conectados en toda la red
Paso 6
Compartir un archivo
Un cable de conexión cruzado
Paso 2
Se conectan las computadoras
Paso 3
En las propiedades del sistema ver si las computadoras están en el mismo grupo de trabajo
Paso 4
Ir a panel de control red y propiedades
Paso 5
IR a propiedades del protocolo de internet TCP/IP
Ponemos una dirección ip y en la siguiente computadora la misma ip pero con el siguiente numero después de la anterior
Paso 6
Hasta aquí tenemos la conexión solo ver si estamos conectados en toda la red
Paso 6
Compartir un archivo
Cableado estructurado
Es el sistema colectivo de cables, canalizaciones, conectores, etiquetas, espacios y demás dispositivos que deben ser instalados para establecer una infraestructura de telecomunicaciones genérica en un edificio o campus. Las características e instalación de estos elementos se debe hacer en cumplimiento de estándares para que califiquen como cableado estructurado. El apego de las instalaciones de cableado estructurado a estándares trae consigo los beneficios de independencia de proveedor y protocolo (infraestructura genérica), flexibilidad de instalación, capacidad de crecimiento y facilidad de administración.
El cableado estructurado consiste en el tendido de cables en el interior de un edificio con el propósito de implantar una red de área local. Suele tratarse de cable de par trenzado de cobre, para redes de tipo IEEE 802.3. No obstante, también puede tratarse de fibra óptica o cable coaxial.
El cableado estructurado consiste en el tendido de cables en el interior de un edificio con el propósito de implantar una red de área local. Suele tratarse de cable de par trenzado de cobre, para redes de tipo IEEE 802.3. No obstante, también puede tratarse de fibra óptica o cable coaxial.
5 Direcciones Ip
69.63.189.11 www.facebook.com
74.125.115.139 www.youtube.com
72.14.204.147 www.google.com
71.6.159.4 www.cinepolis.com.mx
72.14.204.18 www.gmail.com
74.125.115.139 www.youtube.com
72.14.204.147 www.google.com
71.6.159.4 www.cinepolis.com.mx
72.14.204.18 www.gmail.com
127.0.0.1
En informática, en el contexto de redes TCP/IP, localhost es un nombre reservado que tienen todas las computadoras, router o dispositivo independientemente de que disponga o no de una tarjeta de red ethernet. El nombre localhost es traducido como la dirección IP de loopback 127.0.0.1 en IPv4, o como ::1 en IPv6.
Usos prácticos
La direccion de loopback se puede usar para probar el funcionamiento de TCP/IP haciendo ping a 127.0.0.1, al recibir respuesta se puede asumir que el software asociado al protocolo está bien (el hardware como la tarjeta de red no lo conocemos con esta prueba, ya que no llega a salir del propio equipo).
Con fines educativos se suelen instalar servidores; locales http como XAMPP, LAMP o WAMP a los cuales se tendrá acceso con localhost o 127.0.0.1 desde el navegador.
También se puede usar Appserv 2.5.9
Entre los Geeks se usa la expresión "No hay lugar como 127.0.0.1" que sería algo como "No hay lugar como el hogar" Frase utilizada por Dorothy en El mago de Oz y por el filósofo John Geek.
Usos prácticos
La direccion de loopback se puede usar para probar el funcionamiento de TCP/IP haciendo ping a 127.0.0.1, al recibir respuesta se puede asumir que el software asociado al protocolo está bien (el hardware como la tarjeta de red no lo conocemos con esta prueba, ya que no llega a salir del propio equipo).
Con fines educativos se suelen instalar servidores; locales http como XAMPP, LAMP o WAMP a los cuales se tendrá acceso con localhost o 127.0.0.1 desde el navegador.
También se puede usar Appserv 2.5.9
Entre los Geeks se usa la expresión "No hay lugar como 127.0.0.1" que sería algo como "No hay lugar como el hogar" Frase utilizada por Dorothy en El mago de Oz y por el filósofo John Geek.
martes, 9 de marzo de 2010
Tarea 6 TCP IP
¿Qué significa TCP/IP?
TCP/IP es un conjunto de protocolos. La sigla TCP/IP significa "Protocolo de control de transmisión/Protocolo de Internet" y se pronuncia "T-C-P-I-P". Proviene de los nombres de dos protocolos importantes del conjunto de protocolos, es decir, del protocolo TCP y del protocolo IP.
En algunos aspectos, TCP/IP representa todas las reglas de comunicación para Internet y se basa en la noción de dirección IP, es decir, en la idea de brindar una dirección IP a cada equipo de la red para poder enrutar paquetes de datos. Debido a que el conjunto de protocolos TCP/IP originalmente se creó con fines militares, está diseñado para cumplir con una cierta cantidad de criterios, entre ellos:
* dividir mensajes en paquetes;
* usar un sistema de direcciones;
* enrutar datos por la red;
* detectar errores en las transmisiones de datos.
El conocimiento del conjunto de protocolos TCP/IP no es esencial para un simple usuario, de la misma manera que un espectador no necesita saber cómo funciona su red audiovisual o de televisión. Sin embargo, para las personas que desean administrar o brindar soporte técnico a una red TCP/IP, su conocimiento es fundamental.
La diferencia entre estándar e implementación
En general, TCP/IP relaciona dos nociones:
* la noción de estándar: TCP/IP representa la manera en la que se realizan las comunicaciones en una red;
* la noción de implementación: la designación TCP/IP generalmente se extiende a software basado en el protocolo TCP/IP. En realidad, TCP/IP es un modelo cuya aplicación de red utilizan los desarrolladores. Las aplicaciones son, por lo tanto, implementaciones del protocolo TCP/IP.
TCP/IP es un modelo de capas
Para poder aplicar el modelo TCP/IP en cualquier equipo, es decir, independientemente del sistema operativo, el sistema de protocolos TCP/IP se ha dividido en diversos módulos. Cada uno de éstos realiza una tarea específica. Además, estos módulos realizan sus tareas uno después del otro en un orden específico, es decir que existe un sistema estratificado. Ésta es la razón por la cual se habla de modelo de capas.
El término capa se utiliza para reflejar el hecho de que los datos que viajan por la red atraviesan distintos niveles de protocolos. Por lo tanto, cada capa procesa sucesivamente los datos (paquetes de información) que circulan por la red, les agrega un elemento de información (llamado encabezado) y los envía a la capa siguiente.
El modelo TCP/IP es muy similar al modelo OSI (modelo de 7 capas) que fue desarrollado por la Organización Internacional para la Estandarización (ISO) para estandarizar las comunicaciones entre equipos.
Presentación del modelo OSI
OSI significa Interconexión de sistemas abiertos. Este modelo fue establecido por ISO para implementar un estándar de comunicación entre equipos de una red, esto es, las reglas que administran la comunicación entre equipos. De hecho, cuando surgieron las redes,cada fabricante contaba con su propio sistema (hablamos de un sistema patentado), con lo cual coexistían diversas redes incompatibles. Por esta razón, fue necesario establecer un estándar.
La función del modelo OSI es estandarizar la comunicación entre equipos para que diferentes fabricantes puedan desarrollar productos (software o hardware) compatibles (siempre y cuando sigan estrictamente el modelo OSI).
La importancia de un sistema de capas
El objetivo de un sistema en capas es dividir el problema en diferentes partes (las capas), de acuerdo con su nivel de abstracción.
Cada capa del modelo se comunica con un nivel adyacente (superior o inferior). Por lo tanto, cada capa utiliza los servicios de las capas inferiores y se los proporciona a la capa superior.
El modelo OSI
El modelo OSI es un modelo que comprende 7 capas, mientras que el modelo TCP/IP tiene sólo 4. En realidad, el modelo TCP/IP se desarrolló casi a la par que el modelo OSI. Es por ello que está influenciado por éste, pero no sigue todas las especificaciones del modelo OSI. Las capas del modelo OSI son las siguientes:
Nivel Modelo antiguo Modelo nuevo
Nivel 7
Nivel 6
Nivel 5
Nivel 4
Nivel 3
Nivel 2
Nivel 1
* La capa física define la manera en la que los datos se convierten físicamente en señales digitales en los medios de comunicación (pulsos eléctricos, modulación de luz, etc.).
* La capa de enlace de datos define la interfaz con la tarjeta de interfaz de red y cómo se comparte el medio de transmisión.
* La capa de red permite administrar las direcciones y el enrutamiento de datos, es decir, su ruta a través de la red.
* La capa de transporte se encarga del transporte de datos, su división en paquetes y la administración de potenciales errores de transmisión.
* La capa de sesión define el inicio y la finalización de las sesiones de comunicación entre los equipos de la red.
* La capa de presentación define el formato de los datos que maneja la capa de aplicación (su representación y, potencialmente, su compresión y cifrado) independientemente del sistema.
* La capa de aplicación le brinda aplicaciones a la interfaz. Por lo tanto, es el nivel más cercano a los usuarios, administrado directamente por el software.
El modelo TCP/IP
El modelo TCP/IP, influenciado por el modelo OSI, también utiliza el enfoque modular (utiliza módulos o capas), pero sólo contiene cuatro:
Capa de aplicación
Capa de acceso a la red
Como puede apreciarse, las capas del modelo TCP/IP tienen tareas mucho más diversas que las del modelo OSI, considerando que ciertas capas del modelo TCP/IP se corresponden con varios niveles del modelo OSI.
Las funciones de las diferentes capas son las siguientes:
* capa de acceso a la red: especifica la forma en la que los datos deben enrutarse, sea cual sea el tipo de red utilizado;
* capa de Internet: es responsable de proporcionar el paquete de datos (datagrama);
* capa de transporte: brinda los datos de enrutamiento, junto con los mecanismos que permiten conocer el estado de la transmisión;
* capa de aplicación: incorpora aplicaciones de red estándar (Telnet, SMTP, FTP, etc.).
A continuación se indican los principales protocolos que comprenden el conjunto TCP/IP:
Aplicaciones de red
TCP o UDP
IP, ARP, RARP
FTS, FDDI, PPP, Ethernet, Red de anillos
Encapsulación de datos
Durante una transmisión, los datos cruzan cada una de las capas en el nivel del equipo remitente. En cada capa, se le agrega información al paquete de datos. Esto se llama encabezado, es decir, una recopilación de información que garantiza la transmisión. En el nivel del equipo receptor, cuando se atraviesa cada capa, el encabezado se lee y después se elimina. Entonces, cuando se recibe, el mensaje se encuentra en su estado original.
En cada nivel, el paquete de datos cambia su aspecto porque se le agrega un encabezado. Por lo tanto, las designaciones cambian según las capas:
* el paquete de datos se denomina mensaje en el nivel de la capa de aplicación;
* el mensaje después se encapsula en forma de segmento en la capa de transporte;
* una vez que se encapsula el segmento en la capa de Internet, toma el nombre de datagrama;
* finalmente, se habla de trama en el nivel de capa de acceso a la red.
Capa de acceso a la red
La capa de acceso a la red es la primera capa de la pila TCP/IP. Ofrece la capacidad de acceder a cualquier red física, es decir, brinda los recursos que se deben implementar para transmitir datos a través de la red.
Por lo tanto, la capa de acceso a la red contiene especificaciones relacionadas con la transmisión de datos por una red física, cuando es una red de área local (Red en anillo, Ethernet, FDDI), conectada mediante línea telefónica u otro tipo de conexión a una red. Trata los siguientes conceptos:
* enrutamiento de datos por la conexión;
* coordinación de la transmisión de datos (sincronización);
* formato de datos;
* conversión de señal (análoga/digital);
* detección de errores a su llegada.
* ...
Afortunadamente, todas estas especificaciones son invisibles al ojo del usuario, ya que en realidad es el sistema operativo el que realiza estas tareas, mientras los drivers de hardware permiten la conexión a la red (por ejemplo, el driver de la tarjeta de red).
La capa de Internet
La capa de Internet es la capa "más importante" (si bien todas son importantes a su manera), ya que es la que define los datagramas y administra las nociones de direcciones IP.
Permite el enrutamiento de datagramas (paquetes de datos) a equipos remotos junto con la administración de su división y ensamblaje cuando se reciben.
La capa de Internet contiene 5 protocolos:
* el protocolo IP;
* el protocolo ARP;
* el protocolo ICMP;
* el protocolo RARP;
* el protocolo IGMP.
Los primeros tres protocolos son los más importantes para esta capa.
La capa de transporte
Los protocolos de las capas anteriores permiten enviar información de un equipo a otro. La capa de transporte permite que las aplicaciones que se ejecutan en equipos remotos puedan comunicarse. El problema es identificar estas aplicaciones.
De hecho, según el equipo y su sistema operativo, la aplicación puede ser un programa, una tarea, un proceso, etc.
Además, el nombre de la aplicación puede variar de sistema en sistema. Es por ello que se ha implementado un sistema de numeración para poder asociar un tipo de aplicación con un tipo de datos. Estos identificadores se denominan puertos.
La capa de transporte contiene dos protocolos que permiten que dos aplicaciones puedan intercambiar datos independientemente del tipo de red (es decir, independientemente de las capas inferiores). Estos dos protocolos son los siguientes:
* TCP, un protocolo orientado a conexión que brinda detección de errores;
* UDP, un protocolo no orientado a conexión en el que la detección de errores es obsoleta.
La capa de aplicación
La capa de aplicación se encuentra en la parte superior de las capas del protocolo TCP/IP. Contiene las aplicaciones de red que permiten la comunicación mediante las capas inferiores.
Por lo tanto, el software en esta capa se comunica mediante uno o dos protocolos de la capa inferior (la capa de transporte), es decir, TCP o UDP.
Existen diferentes tipos de aplicaciones para esta capa, pero la mayoría son servicios de red o aplicaciones brindadas al usuario para proporcionar la interfaz con el sistema operativo. Se pueden clasificar según los servicios que brindan:
* servicios de administración de archivos e impresión (transferencia);
* servicios de conexión a la red;
* servicios de conexión remota;
* diversas utilidades de Internet.
Última actualización el jueves, 16 de octubre de 2008, 15:43:37
Este documento intitulado « TCP/IP » de Kioskea (es.kioskea.net) esta puesto a diposición bajo la licencia Creative Commons. Puede copiar, modificar bajo las condiciones puestas por la licencia, siempre que esta nota sea visible.
TCP/IP es un conjunto de protocolos. La sigla TCP/IP significa "Protocolo de control de transmisión/Protocolo de Internet" y se pronuncia "T-C-P-I-P". Proviene de los nombres de dos protocolos importantes del conjunto de protocolos, es decir, del protocolo TCP y del protocolo IP.
En algunos aspectos, TCP/IP representa todas las reglas de comunicación para Internet y se basa en la noción de dirección IP, es decir, en la idea de brindar una dirección IP a cada equipo de la red para poder enrutar paquetes de datos. Debido a que el conjunto de protocolos TCP/IP originalmente se creó con fines militares, está diseñado para cumplir con una cierta cantidad de criterios, entre ellos:
* dividir mensajes en paquetes;
* usar un sistema de direcciones;
* enrutar datos por la red;
* detectar errores en las transmisiones de datos.
El conocimiento del conjunto de protocolos TCP/IP no es esencial para un simple usuario, de la misma manera que un espectador no necesita saber cómo funciona su red audiovisual o de televisión. Sin embargo, para las personas que desean administrar o brindar soporte técnico a una red TCP/IP, su conocimiento es fundamental.
La diferencia entre estándar e implementación
En general, TCP/IP relaciona dos nociones:
* la noción de estándar: TCP/IP representa la manera en la que se realizan las comunicaciones en una red;
* la noción de implementación: la designación TCP/IP generalmente se extiende a software basado en el protocolo TCP/IP. En realidad, TCP/IP es un modelo cuya aplicación de red utilizan los desarrolladores. Las aplicaciones son, por lo tanto, implementaciones del protocolo TCP/IP.
TCP/IP es un modelo de capas
Para poder aplicar el modelo TCP/IP en cualquier equipo, es decir, independientemente del sistema operativo, el sistema de protocolos TCP/IP se ha dividido en diversos módulos. Cada uno de éstos realiza una tarea específica. Además, estos módulos realizan sus tareas uno después del otro en un orden específico, es decir que existe un sistema estratificado. Ésta es la razón por la cual se habla de modelo de capas.
El término capa se utiliza para reflejar el hecho de que los datos que viajan por la red atraviesan distintos niveles de protocolos. Por lo tanto, cada capa procesa sucesivamente los datos (paquetes de información) que circulan por la red, les agrega un elemento de información (llamado encabezado) y los envía a la capa siguiente.
El modelo TCP/IP es muy similar al modelo OSI (modelo de 7 capas) que fue desarrollado por la Organización Internacional para la Estandarización (ISO) para estandarizar las comunicaciones entre equipos.
Presentación del modelo OSI
OSI significa Interconexión de sistemas abiertos. Este modelo fue establecido por ISO para implementar un estándar de comunicación entre equipos de una red, esto es, las reglas que administran la comunicación entre equipos. De hecho, cuando surgieron las redes,cada fabricante contaba con su propio sistema (hablamos de un sistema patentado), con lo cual coexistían diversas redes incompatibles. Por esta razón, fue necesario establecer un estándar.
La función del modelo OSI es estandarizar la comunicación entre equipos para que diferentes fabricantes puedan desarrollar productos (software o hardware) compatibles (siempre y cuando sigan estrictamente el modelo OSI).
La importancia de un sistema de capas
El objetivo de un sistema en capas es dividir el problema en diferentes partes (las capas), de acuerdo con su nivel de abstracción.
Cada capa del modelo se comunica con un nivel adyacente (superior o inferior). Por lo tanto, cada capa utiliza los servicios de las capas inferiores y se los proporciona a la capa superior.
El modelo OSI
El modelo OSI es un modelo que comprende 7 capas, mientras que el modelo TCP/IP tiene sólo 4. En realidad, el modelo TCP/IP se desarrolló casi a la par que el modelo OSI. Es por ello que está influenciado por éste, pero no sigue todas las especificaciones del modelo OSI. Las capas del modelo OSI son las siguientes:
Nivel Modelo antiguo Modelo nuevo
Nivel 7
Nivel 6
Nivel 5
Nivel 4
Nivel 3
Nivel 2
Nivel 1
* La capa física define la manera en la que los datos se convierten físicamente en señales digitales en los medios de comunicación (pulsos eléctricos, modulación de luz, etc.).
* La capa de enlace de datos define la interfaz con la tarjeta de interfaz de red y cómo se comparte el medio de transmisión.
* La capa de red permite administrar las direcciones y el enrutamiento de datos, es decir, su ruta a través de la red.
* La capa de transporte se encarga del transporte de datos, su división en paquetes y la administración de potenciales errores de transmisión.
* La capa de sesión define el inicio y la finalización de las sesiones de comunicación entre los equipos de la red.
* La capa de presentación define el formato de los datos que maneja la capa de aplicación (su representación y, potencialmente, su compresión y cifrado) independientemente del sistema.
* La capa de aplicación le brinda aplicaciones a la interfaz. Por lo tanto, es el nivel más cercano a los usuarios, administrado directamente por el software.
El modelo TCP/IP
El modelo TCP/IP, influenciado por el modelo OSI, también utiliza el enfoque modular (utiliza módulos o capas), pero sólo contiene cuatro:
Capa de aplicación
Capa de acceso a la red
Como puede apreciarse, las capas del modelo TCP/IP tienen tareas mucho más diversas que las del modelo OSI, considerando que ciertas capas del modelo TCP/IP se corresponden con varios niveles del modelo OSI.
Las funciones de las diferentes capas son las siguientes:
* capa de acceso a la red: especifica la forma en la que los datos deben enrutarse, sea cual sea el tipo de red utilizado;
* capa de Internet: es responsable de proporcionar el paquete de datos (datagrama);
* capa de transporte: brinda los datos de enrutamiento, junto con los mecanismos que permiten conocer el estado de la transmisión;
* capa de aplicación: incorpora aplicaciones de red estándar (Telnet, SMTP, FTP, etc.).
A continuación se indican los principales protocolos que comprenden el conjunto TCP/IP:
Aplicaciones de red
TCP o UDP
IP, ARP, RARP
FTS, FDDI, PPP, Ethernet, Red de anillos
Encapsulación de datos
Durante una transmisión, los datos cruzan cada una de las capas en el nivel del equipo remitente. En cada capa, se le agrega información al paquete de datos. Esto se llama encabezado, es decir, una recopilación de información que garantiza la transmisión. En el nivel del equipo receptor, cuando se atraviesa cada capa, el encabezado se lee y después se elimina. Entonces, cuando se recibe, el mensaje se encuentra en su estado original.
En cada nivel, el paquete de datos cambia su aspecto porque se le agrega un encabezado. Por lo tanto, las designaciones cambian según las capas:
* el paquete de datos se denomina mensaje en el nivel de la capa de aplicación;
* el mensaje después se encapsula en forma de segmento en la capa de transporte;
* una vez que se encapsula el segmento en la capa de Internet, toma el nombre de datagrama;
* finalmente, se habla de trama en el nivel de capa de acceso a la red.
Capa de acceso a la red
La capa de acceso a la red es la primera capa de la pila TCP/IP. Ofrece la capacidad de acceder a cualquier red física, es decir, brinda los recursos que se deben implementar para transmitir datos a través de la red.
Por lo tanto, la capa de acceso a la red contiene especificaciones relacionadas con la transmisión de datos por una red física, cuando es una red de área local (Red en anillo, Ethernet, FDDI), conectada mediante línea telefónica u otro tipo de conexión a una red. Trata los siguientes conceptos:
* enrutamiento de datos por la conexión;
* coordinación de la transmisión de datos (sincronización);
* formato de datos;
* conversión de señal (análoga/digital);
* detección de errores a su llegada.
* ...
Afortunadamente, todas estas especificaciones son invisibles al ojo del usuario, ya que en realidad es el sistema operativo el que realiza estas tareas, mientras los drivers de hardware permiten la conexión a la red (por ejemplo, el driver de la tarjeta de red).
La capa de Internet
La capa de Internet es la capa "más importante" (si bien todas son importantes a su manera), ya que es la que define los datagramas y administra las nociones de direcciones IP.
Permite el enrutamiento de datagramas (paquetes de datos) a equipos remotos junto con la administración de su división y ensamblaje cuando se reciben.
La capa de Internet contiene 5 protocolos:
* el protocolo IP;
* el protocolo ARP;
* el protocolo ICMP;
* el protocolo RARP;
* el protocolo IGMP.
Los primeros tres protocolos son los más importantes para esta capa.
La capa de transporte
Los protocolos de las capas anteriores permiten enviar información de un equipo a otro. La capa de transporte permite que las aplicaciones que se ejecutan en equipos remotos puedan comunicarse. El problema es identificar estas aplicaciones.
De hecho, según el equipo y su sistema operativo, la aplicación puede ser un programa, una tarea, un proceso, etc.
Además, el nombre de la aplicación puede variar de sistema en sistema. Es por ello que se ha implementado un sistema de numeración para poder asociar un tipo de aplicación con un tipo de datos. Estos identificadores se denominan puertos.
La capa de transporte contiene dos protocolos que permiten que dos aplicaciones puedan intercambiar datos independientemente del tipo de red (es decir, independientemente de las capas inferiores). Estos dos protocolos son los siguientes:
* TCP, un protocolo orientado a conexión que brinda detección de errores;
* UDP, un protocolo no orientado a conexión en el que la detección de errores es obsoleta.
La capa de aplicación
La capa de aplicación se encuentra en la parte superior de las capas del protocolo TCP/IP. Contiene las aplicaciones de red que permiten la comunicación mediante las capas inferiores.
Por lo tanto, el software en esta capa se comunica mediante uno o dos protocolos de la capa inferior (la capa de transporte), es decir, TCP o UDP.
Existen diferentes tipos de aplicaciones para esta capa, pero la mayoría son servicios de red o aplicaciones brindadas al usuario para proporcionar la interfaz con el sistema operativo. Se pueden clasificar según los servicios que brindan:
* servicios de administración de archivos e impresión (transferencia);
* servicios de conexión a la red;
* servicios de conexión remota;
* diversas utilidades de Internet.
Última actualización el jueves, 16 de octubre de 2008, 15:43:37
Este documento intitulado « TCP/IP » de Kioskea (es.kioskea.net) esta puesto a diposición bajo la licencia Creative Commons. Puede copiar, modificar bajo las condiciones puestas por la licencia, siempre que esta nota sea visible.
Tarea 6 Modelo OSI
El modelo de referencia de Interconexión de Sistemas Abiertos (OSI, Open System Interconnection) fue el modelo de red descriptivo creado por la Organización Internacional para la Estandarización lanzado en 1984. Es decir, fue un marco de referencia para la definición de arquitecturas de interconexión de sistemas de comunicaciones.
Nivel Físico (Capa 1) [editar]
Artículo principal: Nivel físico
La Capa Física del modelo de referencia OSI es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico (medios guiados: cable coaxial, cable de par trenzado, fibra óptica entre otros tipos de conexión cableada; medios no guiados: radio, infrarrojos, microondas, láser y otras redes inalámbricas); características del medio (p.e. tipo de cable o calidad del mismo; tipo de conectores normalizados o en su caso tipo de antena; etc.) como a la forma en la que se transmite la información (codificación de señal, niveles de tensión/intensidad de corriente eléctrica, modulación, tasa binaria, etc.)
Es la encargada de transmitir los bits de información a través del medio utilizado para la transmisión. Se ocupa de las propiedades físicas y características eléctricas de los diversos componentes; de la velocidad de transmisión, si ésta es uni o bidireccional (símplex, dúplex o full-dúplex). También de aspectos mecánicos de las conexiones y terminales, incluyendo la interpretación de las señales eléctricas/electromagnéticas.
Se encarga de transformar una trama de datos proveniente del nivel de enlace en una señal adecuada al medio físico utilizado en la transmisión. Estos impulsos pueden ser eléctricos (transmisión por cable) o electromagnéticos (transmisión sin cables). Estos últimos, dependiendo de la frecuencia / longitud de onda de la señal pueden ser ópticos, de micro-ondas o de radio. Cuando actúa en modo recepción el trabajo es inverso; se encarga de transformar la señal transmitida en tramas de datos binarios que serán entregados al nivel de enlace.
Sus principales funciones se pueden resumir como:
* Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
* Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
* Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
* Transmitir el flujo de bits a través del medio.
* Manejar las señales eléctricas/electromagnéticas
* Especificar cables, conectores y componentes de interfaz con el medio de transmisión, polos en un enchufe, etc.
* Garantizar la conexión (aunque no la fiabilidad de ésta).
Codificación de la señal [editar]
El nivel fisico recibe una trama binaria que debe convertir a una señal eléctrica, electromagnética u otra dependiendo del medio, de tal forma que a pesar de la degradación que pueda sufrir en el medio de transmisión vuelva a ser interpretable correctamente en el receptor.
En el caso más sencillo el medio es directamente digital, como en el caso de las fibras ópticas, dado que por ellas se transmiten pulsos de luz.
Cuando el medio no es digital hay que codificar la señal, en los casos más sencillos la codificación puede ser por pulsos de tensión (PCM o Pulse Code Modulation) (por ejemplo 5 V para los "unos" y 0 V para los "ceros"), es lo que se llama codificación unipolar RZ. Otros medios se codifican mediante presencia o ausencia de corriente. En general estas codificaciones son muy simples y no usan bien la capacidad de medio. Cuando se quiere sacar más partido al medio se usan técnicas de modulación más complejas, y suelen ser muy dependientes de las características del medio concreto.
En los casos más complejos, como suelen ser las comunicaciones inalámbricas, se pueden dar modulaciones muy sofisticadas, este es el caso de los estándares Wi-Fi, en el que se utiliza codificación OFDM.
Topología y medios compartidos [editar]
Indirectamente, el tipo de conexión que se haga en la capa física puede influir en el diseño de la capa de Enlace. Atendiendo al número de equipos que comparten un medio hay dos posibilidades:
* Conexiones punto a punto: que se establecen entre dos equipos y que no admiten ser compartidas por terceros
* Conexiones multipunto: en la que más de dos equipos pueden usar el medio.
Así por ejemplo la fibra óptica no permite fácilmente conexiones multipunto (sin embargo, véase FDDI) y por el contrario las conexiones inalámbricas son inherentemente multipunto (sin embargo, véanse los enlaces infrarrojos). Hay topologías por ejemplo la topología de anillo, que permiten conectar muchas máquinas a partir de una serie de conexiones punto a punto(Directa entre dos máquinas).
Equipos adicionales [editar]
A la hora de diseñar una red hay equipos adicionales que pueden funcionar a nivel físico, se trata de los repetidores, en esencia se trata de equipos que amplifican la señal, pudiendo también regenerarla. En las redes Ethernet con la opción de cableado de par trenzado (la más común hoy por hoy) se emplean unos equipos de interconexión llamados concentradores (repetidores en las redes 10Base-2) más conocidos por su nombre en inglés (hubs) que convierten una topología física en estrella en un bus lógico y que actúan exclusivamente a nivel físico, a diferencia de los conmutadores (switches) que actúan a nivel de enlace.
Capa de enlace de datos (Capa 2) [editar]
Artículo principal: Capa de enlace de datos
Cualquier medio de transmisión debe ser capaz de proporcionar una transmisión sin errores, es decir, un tránsito de datos fiable a través de un enlace físico. Debe crear y reconocer los límites de las tramas, así como resolver los problemas derivados del deterioro, pérdida o duplicidad de las tramas. También puede incluir algún mecanismo de regulación del tráfico que evite la saturación de un receptor que sea más lento que el emisor.
La capa de enlace de datos se ocupa del direccionamiento físico, de la topología de la red, del acceso a la red, de la notificación de errores, de la distribución ordenada de tramas y del control del flujo.
Se hace un direccionamiento de los datos en la red ya sea en la distribución adecuada desde un emisor a un receptor, la notificación de errores, de la topología de la red de cualquier tipo. La tarjeta NIC (Network Interface Card, Tarjeta de Interfaz de Red en español o Tarjeta de Red) que se encarga de que tengamos conexión, posee una dirección MAC (control de acceso al medio) y la LLC (control de enlace lógico).
Los Switches realizan su función en esta capa siempre y cuando este encendido el nodo.
Capa de red (Capa 3) [editar]
Artículo principal: Capa de red
El objetivo de la capa de red es hacer que los datos lleguen desde el origen al destino, aun cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominan en castellano encaminadores, aunque es más frecuente encontrar el nombre inglés routers y, en ocasiones enrutadores.
Adicionalmente la capa de red lleva un control de la congestión de red, que es el fenómeno que se produce cuando una saturación de un nodo tira abajo toda la red (similar a un atasco en un cruce importante en una ciudad grande). La PDU(Unidad de Datos del Protocolo, por sus siglas en inglés) de la capa 3 es el paquete.
Los routers trabajan en esta capa, aunque pueden actuar como switch de nivel 2 en determinados casos, dependiendo de la función que se le asigne. Los firewalls actúan sobre esta capa principalmente, para descartar direcciones de máquinas.
En este nivel se realiza el direccionamiento lógico y la determinación de la ruta de los datos hasta su receptor final.
Capa de transporte (Capa 4) [editar]
Artículo principal: Capa Transporte
Su función básica es aceptar los datos enviados por las capas superiores, dividirlos en pequeñas partes si es necesario, y pasarlos a la capa de red. En el caso del modelo OSI, también se asegura que lleguen correctamente al otro lado de la comunicación. Otra característica a destacar es que debe aislar a las capas superiores de las distintas posibles implementaciones de tecnologías de red en las capas inferiores, lo que la convierte en el corazón de la comunicación. En esta capa se proveen servicios de conexión para la capa de sesión que serán utilizados finalmente por los usuarios de la red al enviar y recibir paquetes. Estos servicios estarán asociados al tipo de comunicación empleada, la cual puede ser diferente según el requerimiento que se le haga a la capa de transporte. Por ejemplo, la comunicación puede ser manejada para que los paquetes sean entregados en el orden exacto en que se enviaron, asegurando una comunicación punto a punto libre de errores, o sin tener en cuenta el orden de envío. Una de las dos modalidades debe establecerse antes de comenzar la comunicación para que una sesión determinada envíe paquetes, y ése será el tipo de servicio brindado por la capa de transporte hasta que la sesión finalice. De la explicación del funcionamiento de esta capa se desprende que no está tan encadenada a capas inferiores como en el caso de las capas 1 a 3, sino que el servicio a prestar se determina cada vez que una sesión desea establecer una comunicación. Todo el servicio que presta la capa está gestionado por las cabeceras que agrega al paquete a transmitir.
En resumen, podemos definir a la capa de transporte como:
Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la de destino, independizándolo del tipo de red física que se esté utilizando. La UDP de la capa 4 se llama Segmentos. sus protocolos son TCP y UDP el primero orientado a conexión y el otro sin conexión
Capa de sesión (Capa 5) [editar]
Artículo principal: Nivel de sesión
Esta capa es la que se encarga de mantener y controlar el diálogo establecido entre los dos computadores que están transmitiendo datos de cualquier índole. Ofrece varios servicios que son cruciales para la comunicación, como son:
* Control de la sesión a establecer entre el emisor y el receptor (quién transmite, quién escucha y seguimiento de ésta).
* Control de la concurrencia (que dos comunicaciones a la misma operación crítica no se efectúen al mismo tiempo).
* Mantener puntos de verificación (checkpoints), que sirven para que, ante una interrupción de transmisión por cualquier causa, la misma se pueda reanudar desde el último punto de verificación en lugar de repetirla desde el principio.
Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcial o totalmente prescindibles.
En conclusión esta capa es la que se encarga de mantener el enlace entre los dos computadores que estén transmitiendo datos de cualquier índole.
Capa de presentación (Capa 6) [editar]
Artículo principal: Nivel de presentación
El objetivo de la capa de presentación es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres (ASCII, Unicode, EBCDIC), números (little-endian tipo Intel, big-endian tipo Motorola), sonido o imágenes, los datos lleguen de manera reconocible.
Esta capa es la primera en trabajar más el contenido de la comunicación que el cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.
Esta capa también permite cifrar los datos y comprimirlos. En pocas palabras es un traductor.
Por todo ello, podemos resumir la definición de esta capa como aquella encargada de manejar la estructura de datos abstracta y realizar las conversiones de representación de los datos necesarios para la correcta interpretación de los mismos.
Capa de aplicación (Capa 7) [editar]
Artículo principal: Nivel de aplicación
Ofrece a las aplicaciones (de usuario o no) la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (POP y SMTP), gestores de bases de datos y servidor de ficheros (FTP). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.
Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente. Así por ejemplo un usuario no manda una petición "GET index.html HTTP/1.0" para conseguir una página en html, ni lee directamente el código html/xml.
Entre los protocolos (refiriéndose a protocolos genéricos, no a protocolos de la capa de aplicación de OSI) más conocidos destacan:
* HTTP (HyperText Transfer Protocol = Protocolo de Transferencia de Hipertexto) el protocolo bajo la www.
* FTP (File Transfer Protocol = Protocolo de Transferencia de Archivos) ( FTAM, fuera de TCP/IP) transferencia de ficheros.
* SMTP (Simple Mail Transfer Protocol = Protocolo Simple de Correo) (X.400 fuera de tcp/ip) envío y distribución de correo electrónico.
* POP (Post Office Protocol = Protocolo de Oficina de Correo)/IMAP: reparto de correo al usuario final.
* SSH (Secure Shell = Capa Segura) principalmente terminal remoto, aunque en realidad cifra casi cualquier tipo de transmisión.
* Telnet otro terminal remoto, ha caído en desuso por su inseguridad intrínseca, ya que las claves viajan sin cifrar por la red.
Hay otros protocolos de nivel de aplicación que facilitan el uso y administración de la red:
* SNMP (Simple Network Management Protocol)
* DNS (Domain Name Service)...
Nivel Físico (Capa 1) [editar]
Artículo principal: Nivel físico
La Capa Física del modelo de referencia OSI es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico (medios guiados: cable coaxial, cable de par trenzado, fibra óptica entre otros tipos de conexión cableada; medios no guiados: radio, infrarrojos, microondas, láser y otras redes inalámbricas); características del medio (p.e. tipo de cable o calidad del mismo; tipo de conectores normalizados o en su caso tipo de antena; etc.) como a la forma en la que se transmite la información (codificación de señal, niveles de tensión/intensidad de corriente eléctrica, modulación, tasa binaria, etc.)
Es la encargada de transmitir los bits de información a través del medio utilizado para la transmisión. Se ocupa de las propiedades físicas y características eléctricas de los diversos componentes; de la velocidad de transmisión, si ésta es uni o bidireccional (símplex, dúplex o full-dúplex). También de aspectos mecánicos de las conexiones y terminales, incluyendo la interpretación de las señales eléctricas/electromagnéticas.
Se encarga de transformar una trama de datos proveniente del nivel de enlace en una señal adecuada al medio físico utilizado en la transmisión. Estos impulsos pueden ser eléctricos (transmisión por cable) o electromagnéticos (transmisión sin cables). Estos últimos, dependiendo de la frecuencia / longitud de onda de la señal pueden ser ópticos, de micro-ondas o de radio. Cuando actúa en modo recepción el trabajo es inverso; se encarga de transformar la señal transmitida en tramas de datos binarios que serán entregados al nivel de enlace.
Sus principales funciones se pueden resumir como:
* Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
* Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
* Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
* Transmitir el flujo de bits a través del medio.
* Manejar las señales eléctricas/electromagnéticas
* Especificar cables, conectores y componentes de interfaz con el medio de transmisión, polos en un enchufe, etc.
* Garantizar la conexión (aunque no la fiabilidad de ésta).
Codificación de la señal [editar]
El nivel fisico recibe una trama binaria que debe convertir a una señal eléctrica, electromagnética u otra dependiendo del medio, de tal forma que a pesar de la degradación que pueda sufrir en el medio de transmisión vuelva a ser interpretable correctamente en el receptor.
En el caso más sencillo el medio es directamente digital, como en el caso de las fibras ópticas, dado que por ellas se transmiten pulsos de luz.
Cuando el medio no es digital hay que codificar la señal, en los casos más sencillos la codificación puede ser por pulsos de tensión (PCM o Pulse Code Modulation) (por ejemplo 5 V para los "unos" y 0 V para los "ceros"), es lo que se llama codificación unipolar RZ. Otros medios se codifican mediante presencia o ausencia de corriente. En general estas codificaciones son muy simples y no usan bien la capacidad de medio. Cuando se quiere sacar más partido al medio se usan técnicas de modulación más complejas, y suelen ser muy dependientes de las características del medio concreto.
En los casos más complejos, como suelen ser las comunicaciones inalámbricas, se pueden dar modulaciones muy sofisticadas, este es el caso de los estándares Wi-Fi, en el que se utiliza codificación OFDM.
Topología y medios compartidos [editar]
Indirectamente, el tipo de conexión que se haga en la capa física puede influir en el diseño de la capa de Enlace. Atendiendo al número de equipos que comparten un medio hay dos posibilidades:
* Conexiones punto a punto: que se establecen entre dos equipos y que no admiten ser compartidas por terceros
* Conexiones multipunto: en la que más de dos equipos pueden usar el medio.
Así por ejemplo la fibra óptica no permite fácilmente conexiones multipunto (sin embargo, véase FDDI) y por el contrario las conexiones inalámbricas son inherentemente multipunto (sin embargo, véanse los enlaces infrarrojos). Hay topologías por ejemplo la topología de anillo, que permiten conectar muchas máquinas a partir de una serie de conexiones punto a punto(Directa entre dos máquinas).
Equipos adicionales [editar]
A la hora de diseñar una red hay equipos adicionales que pueden funcionar a nivel físico, se trata de los repetidores, en esencia se trata de equipos que amplifican la señal, pudiendo también regenerarla. En las redes Ethernet con la opción de cableado de par trenzado (la más común hoy por hoy) se emplean unos equipos de interconexión llamados concentradores (repetidores en las redes 10Base-2) más conocidos por su nombre en inglés (hubs) que convierten una topología física en estrella en un bus lógico y que actúan exclusivamente a nivel físico, a diferencia de los conmutadores (switches) que actúan a nivel de enlace.
Capa de enlace de datos (Capa 2) [editar]
Artículo principal: Capa de enlace de datos
Cualquier medio de transmisión debe ser capaz de proporcionar una transmisión sin errores, es decir, un tránsito de datos fiable a través de un enlace físico. Debe crear y reconocer los límites de las tramas, así como resolver los problemas derivados del deterioro, pérdida o duplicidad de las tramas. También puede incluir algún mecanismo de regulación del tráfico que evite la saturación de un receptor que sea más lento que el emisor.
La capa de enlace de datos se ocupa del direccionamiento físico, de la topología de la red, del acceso a la red, de la notificación de errores, de la distribución ordenada de tramas y del control del flujo.
Se hace un direccionamiento de los datos en la red ya sea en la distribución adecuada desde un emisor a un receptor, la notificación de errores, de la topología de la red de cualquier tipo. La tarjeta NIC (Network Interface Card, Tarjeta de Interfaz de Red en español o Tarjeta de Red) que se encarga de que tengamos conexión, posee una dirección MAC (control de acceso al medio) y la LLC (control de enlace lógico).
Los Switches realizan su función en esta capa siempre y cuando este encendido el nodo.
Capa de red (Capa 3) [editar]
Artículo principal: Capa de red
El objetivo de la capa de red es hacer que los datos lleguen desde el origen al destino, aun cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominan en castellano encaminadores, aunque es más frecuente encontrar el nombre inglés routers y, en ocasiones enrutadores.
Adicionalmente la capa de red lleva un control de la congestión de red, que es el fenómeno que se produce cuando una saturación de un nodo tira abajo toda la red (similar a un atasco en un cruce importante en una ciudad grande). La PDU(Unidad de Datos del Protocolo, por sus siglas en inglés) de la capa 3 es el paquete.
Los routers trabajan en esta capa, aunque pueden actuar como switch de nivel 2 en determinados casos, dependiendo de la función que se le asigne. Los firewalls actúan sobre esta capa principalmente, para descartar direcciones de máquinas.
En este nivel se realiza el direccionamiento lógico y la determinación de la ruta de los datos hasta su receptor final.
Capa de transporte (Capa 4) [editar]
Artículo principal: Capa Transporte
Su función básica es aceptar los datos enviados por las capas superiores, dividirlos en pequeñas partes si es necesario, y pasarlos a la capa de red. En el caso del modelo OSI, también se asegura que lleguen correctamente al otro lado de la comunicación. Otra característica a destacar es que debe aislar a las capas superiores de las distintas posibles implementaciones de tecnologías de red en las capas inferiores, lo que la convierte en el corazón de la comunicación. En esta capa se proveen servicios de conexión para la capa de sesión que serán utilizados finalmente por los usuarios de la red al enviar y recibir paquetes. Estos servicios estarán asociados al tipo de comunicación empleada, la cual puede ser diferente según el requerimiento que se le haga a la capa de transporte. Por ejemplo, la comunicación puede ser manejada para que los paquetes sean entregados en el orden exacto en que se enviaron, asegurando una comunicación punto a punto libre de errores, o sin tener en cuenta el orden de envío. Una de las dos modalidades debe establecerse antes de comenzar la comunicación para que una sesión determinada envíe paquetes, y ése será el tipo de servicio brindado por la capa de transporte hasta que la sesión finalice. De la explicación del funcionamiento de esta capa se desprende que no está tan encadenada a capas inferiores como en el caso de las capas 1 a 3, sino que el servicio a prestar se determina cada vez que una sesión desea establecer una comunicación. Todo el servicio que presta la capa está gestionado por las cabeceras que agrega al paquete a transmitir.
En resumen, podemos definir a la capa de transporte como:
Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la de destino, independizándolo del tipo de red física que se esté utilizando. La UDP de la capa 4 se llama Segmentos. sus protocolos son TCP y UDP el primero orientado a conexión y el otro sin conexión
Capa de sesión (Capa 5) [editar]
Artículo principal: Nivel de sesión
Esta capa es la que se encarga de mantener y controlar el diálogo establecido entre los dos computadores que están transmitiendo datos de cualquier índole. Ofrece varios servicios que son cruciales para la comunicación, como son:
* Control de la sesión a establecer entre el emisor y el receptor (quién transmite, quién escucha y seguimiento de ésta).
* Control de la concurrencia (que dos comunicaciones a la misma operación crítica no se efectúen al mismo tiempo).
* Mantener puntos de verificación (checkpoints), que sirven para que, ante una interrupción de transmisión por cualquier causa, la misma se pueda reanudar desde el último punto de verificación en lugar de repetirla desde el principio.
Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcial o totalmente prescindibles.
En conclusión esta capa es la que se encarga de mantener el enlace entre los dos computadores que estén transmitiendo datos de cualquier índole.
Capa de presentación (Capa 6) [editar]
Artículo principal: Nivel de presentación
El objetivo de la capa de presentación es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres (ASCII, Unicode, EBCDIC), números (little-endian tipo Intel, big-endian tipo Motorola), sonido o imágenes, los datos lleguen de manera reconocible.
Esta capa es la primera en trabajar más el contenido de la comunicación que el cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.
Esta capa también permite cifrar los datos y comprimirlos. En pocas palabras es un traductor.
Por todo ello, podemos resumir la definición de esta capa como aquella encargada de manejar la estructura de datos abstracta y realizar las conversiones de representación de los datos necesarios para la correcta interpretación de los mismos.
Capa de aplicación (Capa 7) [editar]
Artículo principal: Nivel de aplicación
Ofrece a las aplicaciones (de usuario o no) la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (POP y SMTP), gestores de bases de datos y servidor de ficheros (FTP). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.
Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente. Así por ejemplo un usuario no manda una petición "GET index.html HTTP/1.0" para conseguir una página en html, ni lee directamente el código html/xml.
Entre los protocolos (refiriéndose a protocolos genéricos, no a protocolos de la capa de aplicación de OSI) más conocidos destacan:
* HTTP (HyperText Transfer Protocol = Protocolo de Transferencia de Hipertexto) el protocolo bajo la www.
* FTP (File Transfer Protocol = Protocolo de Transferencia de Archivos) ( FTAM, fuera de TCP/IP) transferencia de ficheros.
* SMTP (Simple Mail Transfer Protocol = Protocolo Simple de Correo) (X.400 fuera de tcp/ip) envío y distribución de correo electrónico.
* POP (Post Office Protocol = Protocolo de Oficina de Correo)/IMAP: reparto de correo al usuario final.
* SSH (Secure Shell = Capa Segura) principalmente terminal remoto, aunque en realidad cifra casi cualquier tipo de transmisión.
* Telnet otro terminal remoto, ha caído en desuso por su inseguridad intrínseca, ya que las claves viajan sin cifrar por la red.
Hay otros protocolos de nivel de aplicación que facilitan el uso y administración de la red:
* SNMP (Simple Network Management Protocol)
* DNS (Domain Name Service)...
Tarea 5 Que es una trama de red?
En redes una trama es una unidad de envío de datos. Viene a ser el equivalente de paquete de datos o Paquete de red, en el Nivel de enlace de datos del modelo OSI.
Normalmente una trama constará de cabecera, datos y cola. En la cola suele estar algún chequeo de errores. En la cabecera habrá campos de control de protocolo. La parte de datos es la que quiera transmitir en nivel de comunicación superior, típicamente el Nivel de red.
Para delimitar una trama se pueden emplear cuatro métodos:
1. por conteo de caracteres: al principio de la trama se pone el número de bytes que la componen, este método presenta un posible problema de sincronización.
2. por caracteres de principio y fin: en comunicaciones orientadas a caracteres se puede emplear un código de control (los que ocupan la parte inferior de la tabla de codificación ASCII) para representar el principio y fin de las tramas. Habitualmente se emplean STX (Start of Transmission: ASCII #2) para empezar y ETX (End of Transmission: ASCII #3) para terminar. Si se quieren transmitir datos arbitrarios se recurre a secuencias de escape para distinguir los datos de los caracteres de control.
3. por secuencias de bits: en comunicaciones orientadas a bit, se puede emplear una secuencia de bits para indicar el principio y fin de una trama. Se suele emplear el "guión", 01111110, en transmisión siempre que aparezcan cinco unos seguidos se rellena con un cero; en recepción siempre que tras cinco unos aparezca un cero se elimina.
4. por violación del nivel físico: se trata de introducir una señal, o nivel de señal, que no se corresponda ni con un uno ni con un cero. Por ejemplo si la codificación física es bipolar se puede usar el nivel de 0 voltios, o en Codificación Manchester se puede tener la señal a nivel alto o bajo durante todo el tiempo de bit (evitando la transición de niveles característica de este sistema).
1. El estandar de facto evolucionó hacia varios estándares oficiales, como son:
* FR Forum (Asociación de Fabricantes): Cisco, DEC, Stratacom y Nortel.
* ANSI: fuente de normativas Frame-Relay.
* ITU-T también dispone de normativa técnica de la tecnología Frame-Relay
Normalmente una trama constará de cabecera, datos y cola. En la cola suele estar algún chequeo de errores. En la cabecera habrá campos de control de protocolo. La parte de datos es la que quiera transmitir en nivel de comunicación superior, típicamente el Nivel de red.
Para delimitar una trama se pueden emplear cuatro métodos:
1. por conteo de caracteres: al principio de la trama se pone el número de bytes que la componen, este método presenta un posible problema de sincronización.
2. por caracteres de principio y fin: en comunicaciones orientadas a caracteres se puede emplear un código de control (los que ocupan la parte inferior de la tabla de codificación ASCII) para representar el principio y fin de las tramas. Habitualmente se emplean STX (Start of Transmission: ASCII #2) para empezar y ETX (End of Transmission: ASCII #3) para terminar. Si se quieren transmitir datos arbitrarios se recurre a secuencias de escape para distinguir los datos de los caracteres de control.
3. por secuencias de bits: en comunicaciones orientadas a bit, se puede emplear una secuencia de bits para indicar el principio y fin de una trama. Se suele emplear el "guión", 01111110, en transmisión siempre que aparezcan cinco unos seguidos se rellena con un cero; en recepción siempre que tras cinco unos aparezca un cero se elimina.
4. por violación del nivel físico: se trata de introducir una señal, o nivel de señal, que no se corresponda ni con un uno ni con un cero. Por ejemplo si la codificación física es bipolar se puede usar el nivel de 0 voltios, o en Codificación Manchester se puede tener la señal a nivel alto o bajo durante todo el tiempo de bit (evitando la transición de niveles característica de este sistema).
1. El estandar de facto evolucionó hacia varios estándares oficiales, como son:
* FR Forum (Asociación de Fabricantes): Cisco, DEC, Stratacom y Nortel.
* ANSI: fuente de normativas Frame-Relay.
* ITU-T también dispone de normativa técnica de la tecnología Frame-Relay
Tarea 5 TCP/IP
Familia de protocolos de Internet
La familia de protocolos de Internet es un conjunto de protocolos de red en los que se basa Internet y que permiten la transmisión de datos entre redes de computadoras. En ocasiones se le denomina conjunto de protocolos TCP/IP, en referencia a los dos protocolos más importantes que la componen: Protocolo de Control de Transmisión (TCP) y Protocolo de Internet (IP), que fueron los dos primeros en definirse, y que son los más utilizados de la familia. Existen tantos protocolos en este conjunto que llegan a ser más de 100 diferentes, entre ellos se encuentra el popular HTTP (HyperText Transfer Protocol), que es el que se utiliza para acceder a las páginas web, además de otros como el ARP (Address Resolution Protocol) para la resolución de direcciones, el FTP (File Transfer Protocol) para transferencia de archivos, y el SMTP (Simple Mail Transfer Protocol) y el POP (Post Office Protocol) para correo electrónico, TELNET para acceder a equipos remotos, entre otros.
El TCP/IP es la base de Internet, y sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de área local (LAN) y área extensa (WAN). TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el Departamento de Defensa de los Estados Unidos, ejecutándolo en ARPANET, una red de área extensa de dicho departamento.
La familia de protocolos de Internet puede describirse por analogía con el modelo OSI (Open System Interconnection), que describe los niveles o capas de la pila de protocolos, aunque en la práctica no corresponde exactamente con el modelo en Internet. En una pila de protocolos, cada nivel soluciona una serie de problemas relacionados con la transmisión de datos, y proporciona un servicio bien definido a los niveles más altos. Los niveles superiores son los más cercanos al usuario y tratan con datos más abstractos, dejando a los niveles más bajos la labor de traducir los datos de forma que sean físicamente manipulables.
El modelo de Internet fue diseñado como la solución a un problema práctico de ingeniería. El modelo OSI, en cambio, fue propuesto como una aproximación teórica y también como una primera fase en la evolución de las redes de ordenadores. Por lo tanto, el modelo OSI es más fácil de entender, pero el modelo TCP/IP es el que realmente se usa. Sirve de ayuda entender el modelo OSI antes de conocer TCP/IP, ya que se aplican los mismos principios, pero son más fáciles de entender en el modelo OSI.
El 1 de enero de 2010 el Protocolo TCP/IP cumplió 27 años.
Historia del Protocolo TCP/IP [editar]
La Familia de Protocolos de Internet fueron el resultado del trabajo llevado a cabo por la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA por sus siglas en inglés) a principios de los 70. Después de la construcción de la pionera ARPANET en 1969 DARPA comenzó a trabajar en un gran número de tecnologías de transmisión de datos. En 1972, Robert E. Kahn fue contratado por la Oficina de Técnicas de Procesamiento de Información de DARPA, donde trabajo en la comunicación de paquetes por satélite y por ondas de radio, reconoció el importante valor de la comunicación de estas dos formas. En la primavera de 1973, Vint Cerf, desarrollador del protocolo de ARPANET, Network Control Program(NPC) se unió a Kahn con el objetivo de crear una arquitectura abierta de interconexión y diseñar así la nueva generación de protocolos de ARPANET.
Para el verano de 1973, Kahn y Cerf habian conseguido una remodelación fundamental, donde las diferencias entre los protocolos de red se ocultaban usando un Protocolo de comunicaciones y además, la red dejaba de ser responsable de la fiabilidad de la comunicación, como pasaba en ARPANET , era el host el responsable. Cerf reconoció el mérito de Hubert Zimmerman y Louis Pouzin, creadores de la red CYCLADES, ya que su trabajo estuvo muy influenciado por el diseño de esta red.
Con el papel que realizaban las redes en el proceso de comunicación reducido al mínimo, se convirtió en una posibilidad real comunicar redes diferentes, sin importar las características que estas tuvieran. Hay un dicho popular sobre el protocolo TCP/IP, que fue el producto final desarrollado por Cerf y Kahn, que dice que este protocolo acabara funcionando incluso entre "dos latas unidas por un cordón". De hecho hay hasta una implementación usando palomas mensajeras, IP sobre palomas mensajeras, que esta documentado en RFC 1149. [1] .[2]
Un ordenador denominado router (un nombre que fue después cambiado a gateway, puerta de enlace, para evitar confusiones con otros tipos de Puerta de enlace) esta dotado con una interfaz para cada red, y envía Datagrama de ida y vuelta entre ellos. Los requisitos para estor routers están definidos en el RFC 1812. [3]
Esta idea fue llevada a la práctica de una forma mas detallada por el grupo de investigación que Cerf tenía en Stanford durante el periodo de 1973 a 1974, dando como resultado la primera especificación TCP (Request for Comments 675,) [4] Entonces DARPA fue contratada por BBN Technologies, la Universidad de Stanford, y la University College de Londres para desarrollar versiones operacionales del protocolo en diferentes plataformas de hardware. Se desarrollaron así cuatro versiones diferentes: TCP v1, TCP v2, una tercera dividida en dos TCP v3 y IP v3 en la primavera de 1978, y después se estabilizó la versión TCP/IP v4 — el protocolo estándar que todavía se emplea en Internet.
En 1975, se realizó la primera prueba de comunicación entre dos redes con protocolos TCP/IP entre la Universidad de Stanford y la University College de Londres(UCL). En 1977, se realizó otra prueba de comunicación con un protocolo TCP/IP entre tres redes distintas con ubicaciones en Estados Unidos, Reino Unido y Noruega. Varios prototipos diferentes de protocolos TCP/IP se desarrollaron en múltiples centros de investigación entre los años 1978 y 1983. La migración completa de la red ARPANET al protocolo TCP/IP concluyó oficialmente el día 1 de enero de 1983 cuando los protocolos fueron activados permanentemente.[5]
En marzo de 1982, el Departamento de Defensa de los Estados Unidos declaró al protocolo TCP/IP el estándar para las comunicaciones entre redes militares.[6] En 1985, el Centro de Administración de Internet (Internet Architecture Board IAB por sus siglas en inglés) organizó un Taller de Trabajo de tres días de duración, al que asistieron 250 comerciales promocionando así el protocolo lo que contribuyó a un incremento de su uso comercial.
Kahn y Cerf fueron premiados con la Medalla Presidencial de la Libertad el 10 de noviembre de 2005 por su contribución a la cultura Americana[7] .
Ventajas e inconvenientes [editar]
El conjunto TCP/IP está diseñado para enrutar y tiene un grado muy elevado de fiabilidad, es adecuado para redes grandes y medianas, así como en redes empresariales. Se utiliza a nivel mundial para conectarse a Internet y a los servidores web. Es compatible con las herramientas estándar para analizar el funcionamiento de la red.
Un inconveniente de TCP/IP es que es más difícil de configurar y de mantener que NetBEUI o IPX/SPX; además es algo más lento en redes con un volumen de tráfico medio bajo. Sin embargo, puede ser más rápido en redes con un volumen de tráfico grande donde haya que enrutar un gran número de tramas.
El conjunto TCP/IP se utiliza tanto en redes empresariales como por ejemplo en campus universitarios o en complejos empresariales, en donde utilizan muchos enrutadores y conexiones a mainframe o a ordenadores UNIX, como así también en redes pequeñas o domésticas, y hasta en teléfonos móviles y en domótica.
La familia de protocolos de Internet es un conjunto de protocolos de red en los que se basa Internet y que permiten la transmisión de datos entre redes de computadoras. En ocasiones se le denomina conjunto de protocolos TCP/IP, en referencia a los dos protocolos más importantes que la componen: Protocolo de Control de Transmisión (TCP) y Protocolo de Internet (IP), que fueron los dos primeros en definirse, y que son los más utilizados de la familia. Existen tantos protocolos en este conjunto que llegan a ser más de 100 diferentes, entre ellos se encuentra el popular HTTP (HyperText Transfer Protocol), que es el que se utiliza para acceder a las páginas web, además de otros como el ARP (Address Resolution Protocol) para la resolución de direcciones, el FTP (File Transfer Protocol) para transferencia de archivos, y el SMTP (Simple Mail Transfer Protocol) y el POP (Post Office Protocol) para correo electrónico, TELNET para acceder a equipos remotos, entre otros.
El TCP/IP es la base de Internet, y sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de área local (LAN) y área extensa (WAN). TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el Departamento de Defensa de los Estados Unidos, ejecutándolo en ARPANET, una red de área extensa de dicho departamento.
La familia de protocolos de Internet puede describirse por analogía con el modelo OSI (Open System Interconnection), que describe los niveles o capas de la pila de protocolos, aunque en la práctica no corresponde exactamente con el modelo en Internet. En una pila de protocolos, cada nivel soluciona una serie de problemas relacionados con la transmisión de datos, y proporciona un servicio bien definido a los niveles más altos. Los niveles superiores son los más cercanos al usuario y tratan con datos más abstractos, dejando a los niveles más bajos la labor de traducir los datos de forma que sean físicamente manipulables.
El modelo de Internet fue diseñado como la solución a un problema práctico de ingeniería. El modelo OSI, en cambio, fue propuesto como una aproximación teórica y también como una primera fase en la evolución de las redes de ordenadores. Por lo tanto, el modelo OSI es más fácil de entender, pero el modelo TCP/IP es el que realmente se usa. Sirve de ayuda entender el modelo OSI antes de conocer TCP/IP, ya que se aplican los mismos principios, pero son más fáciles de entender en el modelo OSI.
El 1 de enero de 2010 el Protocolo TCP/IP cumplió 27 años.
Historia del Protocolo TCP/IP [editar]
La Familia de Protocolos de Internet fueron el resultado del trabajo llevado a cabo por la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA por sus siglas en inglés) a principios de los 70. Después de la construcción de la pionera ARPANET en 1969 DARPA comenzó a trabajar en un gran número de tecnologías de transmisión de datos. En 1972, Robert E. Kahn fue contratado por la Oficina de Técnicas de Procesamiento de Información de DARPA, donde trabajo en la comunicación de paquetes por satélite y por ondas de radio, reconoció el importante valor de la comunicación de estas dos formas. En la primavera de 1973, Vint Cerf, desarrollador del protocolo de ARPANET, Network Control Program(NPC) se unió a Kahn con el objetivo de crear una arquitectura abierta de interconexión y diseñar así la nueva generación de protocolos de ARPANET.
Para el verano de 1973, Kahn y Cerf habian conseguido una remodelación fundamental, donde las diferencias entre los protocolos de red se ocultaban usando un Protocolo de comunicaciones y además, la red dejaba de ser responsable de la fiabilidad de la comunicación, como pasaba en ARPANET , era el host el responsable. Cerf reconoció el mérito de Hubert Zimmerman y Louis Pouzin, creadores de la red CYCLADES, ya que su trabajo estuvo muy influenciado por el diseño de esta red.
Con el papel que realizaban las redes en el proceso de comunicación reducido al mínimo, se convirtió en una posibilidad real comunicar redes diferentes, sin importar las características que estas tuvieran. Hay un dicho popular sobre el protocolo TCP/IP, que fue el producto final desarrollado por Cerf y Kahn, que dice que este protocolo acabara funcionando incluso entre "dos latas unidas por un cordón". De hecho hay hasta una implementación usando palomas mensajeras, IP sobre palomas mensajeras, que esta documentado en RFC 1149. [1] .[2]
Un ordenador denominado router (un nombre que fue después cambiado a gateway, puerta de enlace, para evitar confusiones con otros tipos de Puerta de enlace) esta dotado con una interfaz para cada red, y envía Datagrama de ida y vuelta entre ellos. Los requisitos para estor routers están definidos en el RFC 1812. [3]
Esta idea fue llevada a la práctica de una forma mas detallada por el grupo de investigación que Cerf tenía en Stanford durante el periodo de 1973 a 1974, dando como resultado la primera especificación TCP (Request for Comments 675,) [4] Entonces DARPA fue contratada por BBN Technologies, la Universidad de Stanford, y la University College de Londres para desarrollar versiones operacionales del protocolo en diferentes plataformas de hardware. Se desarrollaron así cuatro versiones diferentes: TCP v1, TCP v2, una tercera dividida en dos TCP v3 y IP v3 en la primavera de 1978, y después se estabilizó la versión TCP/IP v4 — el protocolo estándar que todavía se emplea en Internet.
En 1975, se realizó la primera prueba de comunicación entre dos redes con protocolos TCP/IP entre la Universidad de Stanford y la University College de Londres(UCL). En 1977, se realizó otra prueba de comunicación con un protocolo TCP/IP entre tres redes distintas con ubicaciones en Estados Unidos, Reino Unido y Noruega. Varios prototipos diferentes de protocolos TCP/IP se desarrollaron en múltiples centros de investigación entre los años 1978 y 1983. La migración completa de la red ARPANET al protocolo TCP/IP concluyó oficialmente el día 1 de enero de 1983 cuando los protocolos fueron activados permanentemente.[5]
En marzo de 1982, el Departamento de Defensa de los Estados Unidos declaró al protocolo TCP/IP el estándar para las comunicaciones entre redes militares.[6] En 1985, el Centro de Administración de Internet (Internet Architecture Board IAB por sus siglas en inglés) organizó un Taller de Trabajo de tres días de duración, al que asistieron 250 comerciales promocionando así el protocolo lo que contribuyó a un incremento de su uso comercial.
Kahn y Cerf fueron premiados con la Medalla Presidencial de la Libertad el 10 de noviembre de 2005 por su contribución a la cultura Americana[7] .
Ventajas e inconvenientes [editar]
El conjunto TCP/IP está diseñado para enrutar y tiene un grado muy elevado de fiabilidad, es adecuado para redes grandes y medianas, así como en redes empresariales. Se utiliza a nivel mundial para conectarse a Internet y a los servidores web. Es compatible con las herramientas estándar para analizar el funcionamiento de la red.
Un inconveniente de TCP/IP es que es más difícil de configurar y de mantener que NetBEUI o IPX/SPX; además es algo más lento en redes con un volumen de tráfico medio bajo. Sin embargo, puede ser más rápido en redes con un volumen de tráfico grande donde haya que enrutar un gran número de tramas.
El conjunto TCP/IP se utiliza tanto en redes empresariales como por ejemplo en campus universitarios o en complejos empresariales, en donde utilizan muchos enrutadores y conexiones a mainframe o a ordenadores UNIX, como así también en redes pequeñas o domésticas, y hasta en teléfonos móviles y en domótica.
Tarea 5 Que es un paquete
odo lo que uno hace en Internet, involucra paquetes de información. Por ejemplo, cada página Web que uno recibe, viene en una serie de paquetes, cada correo electrónico que uno manda, sale como una serie de paquetes.
En Internet, la red rompe un correo electrónico en partes de cierto tamaño de bytes. Estos son los paquetes de información. Cada paquete carga la información que le va a ayudar a llegar a su destino “la IP del remitente, la del destinatario, algo que le dice a la red de cuantos paquetes consiste el correo electrónico, y el número de cada uno de esos paquetes”. El paquete carga los datos en los protocolos que Internet usa: TCP/IP (Transmission Control Protocol / Internet Protocol “Protocolo de control de transmisión / Protocolo de Internet). Cada paquete contiene parte del cuerpo total del mensaje. Un paquete típico contiene más o menos entre 1,000 y 1,500 bytes.
Cada paquete es enviado a su destino por la mejor ruta disponible “una ruta que puede o no ser tomada por el resto de los paquetes del mensaje”. Esto hace a la red más eficiente. Primero, la red puede balancear la carga de transmisión a través de distintos equipos en milisegundos. Segundo, si hay algún problema con un equipo de la red mientras un mensaje esta siendo transferido, los paquetes pueden ser desviados del problema por otra ruta, asegurando la entrega del mensaje completo.
La mayoría de los paquetes están divididos en tres partes:
Encabezado:
Contiene instrucciones sobre los datos cargados por el paquete, que puede incluir los siguientes:
- Tamaño del paquete (algunas redes tiene paquetes de tamaño fijo, mientras que otras dependen del encabezado para contener esta información)
- Sincronización (algunos bits que le ayudan al paquete encajar en la red)
- Número del paquete (que paquete es en la secuencia de paquetes)
- Protocolo (en redes que cargan distintos tipos de información, el protocolo define que tipo de paquete esta siendo transferido: correo, Web, video, etc.)
- Dirección del destinatario (hacia donde va el paquete)
- Dirección del remitente (de donde vino el paquete)
Cuerpo:
En esta parte se almacena los datos que el paquete esta entregando al destino. Si un paquete tiene un tamaño fijo, entonces el cuerpo puede contener espacio vacío para rellenar el espacio del cuerpo necesario para hacerlo del tamaño correcto.
Cola:
También llamada pie, contiene unos bits que le indican al equipo receptor que se ha llegado al fin del paquete. También puede contener algún tipo de verificador de estado ó de errores. El verificador más común utilizado en los paquetes es el CRC (Cyclic Redundancy Check “Control por Redundancia Cíclica”). Este verificador suma todos los unos (1s) en el Cuerpo del paquete, el resultado es almacenado como un valor hexadecimal en la Cola. El equipo receptor suma también esa misma información y la compara con la que se encuentra en la Cola del paquete. Si los valores concuerdan, el paquete es correcto. Pero si no concuerdan, el equipo receptor le envía una solicitud al equipo transmisor para que reenvié el paquete.
Como ejemplo, supongamos que mandamos un correo electrónico a un amigo. El correo es de 3,500 bits de tamaño. La red por la que lo enviamos, usa paquetes de tamaño fijo de 1,024 bits. El Encabezado de cada paquete utiliza 96 bits y la Cola 32 bits, dejando 896 bits para el Cuerpo. Para romper los 3,500 bits del mensaje en paquetes, necesitaríamos cuatro paquetes (3,500 / 896). Tres de los paquetes contienen 896 bits del mensaje mientras que el cuarto solo 812 bits.
El encabezado de cada paquete, contiene el protocolo, la IP del remitente y del destinatario y el número del paquete (1, 2, 3 o 4). Los ruteadores en la red buscaran la dirección del destinatario en el Encabezado y la compararan con la tabla de operaciones de búsqueda (lookup table) para ver a donde tienen que enviar el mensaje. Una vez que el mensaje llega a destino, la computadora de nuestro amigo, removerá el Encabezado y Cola de cada paquete, y juntara la información según la secuencia contenida en cada paquete, para formar otra vez el mensaje.
En Internet, la red rompe un correo electrónico en partes de cierto tamaño de bytes. Estos son los paquetes de información. Cada paquete carga la información que le va a ayudar a llegar a su destino “la IP del remitente, la del destinatario, algo que le dice a la red de cuantos paquetes consiste el correo electrónico, y el número de cada uno de esos paquetes”. El paquete carga los datos en los protocolos que Internet usa: TCP/IP (Transmission Control Protocol / Internet Protocol “Protocolo de control de transmisión / Protocolo de Internet). Cada paquete contiene parte del cuerpo total del mensaje. Un paquete típico contiene más o menos entre 1,000 y 1,500 bytes.
Cada paquete es enviado a su destino por la mejor ruta disponible “una ruta que puede o no ser tomada por el resto de los paquetes del mensaje”. Esto hace a la red más eficiente. Primero, la red puede balancear la carga de transmisión a través de distintos equipos en milisegundos. Segundo, si hay algún problema con un equipo de la red mientras un mensaje esta siendo transferido, los paquetes pueden ser desviados del problema por otra ruta, asegurando la entrega del mensaje completo.
La mayoría de los paquetes están divididos en tres partes:
Encabezado:
Contiene instrucciones sobre los datos cargados por el paquete, que puede incluir los siguientes:
- Tamaño del paquete (algunas redes tiene paquetes de tamaño fijo, mientras que otras dependen del encabezado para contener esta información)
- Sincronización (algunos bits que le ayudan al paquete encajar en la red)
- Número del paquete (que paquete es en la secuencia de paquetes)
- Protocolo (en redes que cargan distintos tipos de información, el protocolo define que tipo de paquete esta siendo transferido: correo, Web, video, etc.)
- Dirección del destinatario (hacia donde va el paquete)
- Dirección del remitente (de donde vino el paquete)
Cuerpo:
En esta parte se almacena los datos que el paquete esta entregando al destino. Si un paquete tiene un tamaño fijo, entonces el cuerpo puede contener espacio vacío para rellenar el espacio del cuerpo necesario para hacerlo del tamaño correcto.
Cola:
También llamada pie, contiene unos bits que le indican al equipo receptor que se ha llegado al fin del paquete. También puede contener algún tipo de verificador de estado ó de errores. El verificador más común utilizado en los paquetes es el CRC (Cyclic Redundancy Check “Control por Redundancia Cíclica”). Este verificador suma todos los unos (1s) en el Cuerpo del paquete, el resultado es almacenado como un valor hexadecimal en la Cola. El equipo receptor suma también esa misma información y la compara con la que se encuentra en la Cola del paquete. Si los valores concuerdan, el paquete es correcto. Pero si no concuerdan, el equipo receptor le envía una solicitud al equipo transmisor para que reenvié el paquete.
Como ejemplo, supongamos que mandamos un correo electrónico a un amigo. El correo es de 3,500 bits de tamaño. La red por la que lo enviamos, usa paquetes de tamaño fijo de 1,024 bits. El Encabezado de cada paquete utiliza 96 bits y la Cola 32 bits, dejando 896 bits para el Cuerpo. Para romper los 3,500 bits del mensaje en paquetes, necesitaríamos cuatro paquetes (3,500 / 896). Tres de los paquetes contienen 896 bits del mensaje mientras que el cuarto solo 812 bits.
El encabezado de cada paquete, contiene el protocolo, la IP del remitente y del destinatario y el número del paquete (1, 2, 3 o 4). Los ruteadores en la red buscaran la dirección del destinatario en el Encabezado y la compararan con la tabla de operaciones de búsqueda (lookup table) para ver a donde tienen que enviar el mensaje. Una vez que el mensaje llega a destino, la computadora de nuestro amigo, removerá el Encabezado y Cola de cada paquete, y juntara la información según la secuencia contenida en cada paquete, para formar otra vez el mensaje.
Tarea 5 Que es el modelo OSI
El modelo de referencia de Interconexión de Sistemas Abiertos (OSI, Open System Interconnection) fue el modelo de red descriptivo creado por la Organización Internacional para la Estandarización lanzado en 1984. Es decir, fue un marco de referencia para la definición de arquitecturas de interconexión de sistemas de comunicaciones.
Nivel Físico (Capa 1) [editar]
Artículo principal: Nivel físico
La Capa Física del modelo de referencia OSI es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico (medios guiados: cable coaxial, cable de par trenzado, fibra óptica entre otros tipos de conexión cableada; medios no guiados: radio, infrarrojos, microondas, láser y otras redes inalámbricas); características del medio (p.e. tipo de cable o calidad del mismo; tipo de conectores normalizados o en su caso tipo de antena; etc.) como a la forma en la que se transmite la información (codificación de señal, niveles de tensión/intensidad de corriente eléctrica, modulación, tasa binaria, etc.)
Es la encargada de transmitir los bits de información a través del medio utilizado para la transmisión. Se ocupa de las propiedades físicas y características eléctricas de los diversos componentes; de la velocidad de transmisión, si ésta es uni o bidireccional (símplex, dúplex o full-dúplex). También de aspectos mecánicos de las conexiones y terminales, incluyendo la interpretación de las señales eléctricas/electromagnéticas.
Se encarga de transformar una trama de datos proveniente del nivel de enlace en una señal adecuada al medio físico utilizado en la transmisión. Estos impulsos pueden ser eléctricos (transmisión por cable) o electromagnéticos (transmisión sin cables). Estos últimos, dependiendo de la frecuencia / longitud de onda de la señal pueden ser ópticos, de micro-ondas o de radio. Cuando actúa en modo recepción el trabajo es inverso; se encarga de transformar la señal transmitida en tramas de datos binarios que serán entregados al nivel de enlace.
Sus principales funciones se pueden resumir como:
* Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
* Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
* Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
* Transmitir el flujo de bits a través del medio.
* Manejar las señales eléctricas/electromagnéticas
* Especificar cables, conectores y componentes de interfaz con el medio de transmisión, polos en un enchufe, etc.
* Garantizar la conexión (aunque no la fiabilidad de ésta).
Codificación de la señal [editar]
El nivel fisico recibe una trama binaria que debe convertir a una señal eléctrica, electromagnética u otra dependiendo del medio, de tal forma que a pesar de la degradación que pueda sufrir en el medio de transmisión vuelva a ser interpretable correctamente en el receptor.
En el caso más sencillo el medio es directamente digital, como en el caso de las fibras ópticas, dado que por ellas se transmiten pulsos de luz.
Cuando el medio no es digital hay que codificar la señal, en los casos más sencillos la codificación puede ser por pulsos de tensión (PCM o Pulse Code Modulation) (por ejemplo 5 V para los "unos" y 0 V para los "ceros"), es lo que se llama codificación unipolar RZ. Otros medios se codifican mediante presencia o ausencia de corriente. En general estas codificaciones son muy simples y no usan bien la capacidad de medio. Cuando se quiere sacar más partido al medio se usan técnicas de modulación más complejas, y suelen ser muy dependientes de las características del medio concreto.
En los casos más complejos, como suelen ser las comunicaciones inalámbricas, se pueden dar modulaciones muy sofisticadas, este es el caso de los estándares Wi-Fi, en el que se utiliza codificación OFDM.
Topología y medios compartidos [editar]
Indirectamente, el tipo de conexión que se haga en la capa física puede influir en el diseño de la capa de Enlace. Atendiendo al número de equipos que comparten un medio hay dos posibilidades:
* Conexiones punto a punto: que se establecen entre dos equipos y que no admiten ser compartidas por terceros
* Conexiones multipunto: en la que más de dos equipos pueden usar el medio.
Así por ejemplo la fibra óptica no permite fácilmente conexiones multipunto (sin embargo, véase FDDI) y por el contrario las conexiones inalámbricas son inherentemente multipunto (sin embargo, véanse los enlaces infrarrojos). Hay topologías por ejemplo la topología de anillo, que permiten conectar muchas máquinas a partir de una serie de conexiones punto a punto(Directa entre dos máquinas).
Equipos adicionales [editar]
A la hora de diseñar una red hay equipos adicionales que pueden funcionar a nivel físico, se trata de los repetidores, en esencia se trata de equipos que amplifican la señal, pudiendo también regenerarla. En las redes Ethernet con la opción de cableado de par trenzado (la más común hoy por hoy) se emplean unos equipos de interconexión llamados concentradores (repetidores en las redes 10Base-2) más conocidos por su nombre en inglés (hubs) que convierten una topología física en estrella en un bus lógico y que actúan exclusivamente a nivel físico, a diferencia de los conmutadores (switches) que actúan a nivel de enlace.
Capa de enlace de datos (Capa 2) [editar]
Artículo principal: Capa de enlace de datos
Cualquier medio de transmisión debe ser capaz de proporcionar una transmisión sin errores, es decir, un tránsito de datos fiable a través de un enlace físico. Debe crear y reconocer los límites de las tramas, así como resolver los problemas derivados del deterioro, pérdida o duplicidad de las tramas. También puede incluir algún mecanismo de regulación del tráfico que evite la saturación de un receptor que sea más lento que el emisor.
La capa de enlace de datos se ocupa del direccionamiento físico, de la topología de la red, del acceso a la red, de la notificación de errores, de la distribución ordenada de tramas y del control del flujo.
Se hace un direccionamiento de los datos en la red ya sea en la distribución adecuada desde un emisor a un receptor, la notificación de errores, de la topología de la red de cualquier tipo. La tarjeta NIC (Network Interface Card, Tarjeta de Interfaz de Red en español o Tarjeta de Red) que se encarga de que tengamos conexión, posee una dirección MAC (control de acceso al medio) y la LLC (control de enlace lógico).
Los Switches realizan su función en esta capa siempre y cuando este encendido el nodo.
Capa de red (Capa 3) [editar]
Artículo principal: Capa de red
El objetivo de la capa de red es hacer que los datos lleguen desde el origen al destino, aun cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominan en castellano encaminadores, aunque es más frecuente encontrar el nombre inglés routers y, en ocasiones enrutadores.
Adicionalmente la capa de red lleva un control de la congestión de red, que es el fenómeno que se produce cuando una saturación de un nodo tira abajo toda la red (similar a un atasco en un cruce importante en una ciudad grande). La PDU(Unidad de Datos del Protocolo, por sus siglas en inglés) de la capa 3 es el paquete.
Los routers trabajan en esta capa, aunque pueden actuar como switch de nivel 2 en determinados casos, dependiendo de la función que se le asigne. Los firewalls actúan sobre esta capa principalmente, para descartar direcciones de máquinas.
En este nivel se realiza el direccionamiento lógico y la determinación de la ruta de los datos hasta su receptor final.
Capa de transporte (Capa 4) [editar]
Artículo principal: Capa Transporte
Su función básica es aceptar los datos enviados por las capas superiores, dividirlos en pequeñas partes si es necesario, y pasarlos a la capa de red. En el caso del modelo OSI, también se asegura que lleguen correctamente al otro lado de la comunicación. Otra característica a destacar es que debe aislar a las capas superiores de las distintas posibles implementaciones de tecnologías de red en las capas inferiores, lo que la convierte en el corazón de la comunicación. En esta capa se proveen servicios de conexión para la capa de sesión que serán utilizados finalmente por los usuarios de la red al enviar y recibir paquetes. Estos servicios estarán asociados al tipo de comunicación empleada, la cual puede ser diferente según el requerimiento que se le haga a la capa de transporte. Por ejemplo, la comunicación puede ser manejada para que los paquetes sean entregados en el orden exacto en que se enviaron, asegurando una comunicación punto a punto libre de errores, o sin tener en cuenta el orden de envío. Una de las dos modalidades debe establecerse antes de comenzar la comunicación para que una sesión determinada envíe paquetes, y ése será el tipo de servicio brindado por la capa de transporte hasta que la sesión finalice. De la explicación del funcionamiento de esta capa se desprende que no está tan encadenada a capas inferiores como en el caso de las capas 1 a 3, sino que el servicio a prestar se determina cada vez que una sesión desea establecer una comunicación. Todo el servicio que presta la capa está gestionado por las cabeceras que agrega al paquete a transmitir.
En resumen, podemos definir a la capa de transporte como:
Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la de destino, independizándolo del tipo de red física que se esté utilizando. La UDP de la capa 4 se llama Segmentos. sus protocolos son TCP y UDP el primero orientado a conexión y el otro sin conexión
Capa de sesión (Capa 5) [editar]
Artículo principal: Nivel de sesión
Esta capa es la que se encarga de mantener y controlar el diálogo establecido entre los dos computadores que están transmitiendo datos de cualquier índole. Ofrece varios servicios que son cruciales para la comunicación, como son:
* Control de la sesión a establecer entre el emisor y el receptor (quién transmite, quién escucha y seguimiento de ésta).
* Control de la concurrencia (que dos comunicaciones a la misma operación crítica no se efectúen al mismo tiempo).
* Mantener puntos de verificación (checkpoints), que sirven para que, ante una interrupción de transmisión por cualquier causa, la misma se pueda reanudar desde el último punto de verificación en lugar de repetirla desde el principio.
Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcial o totalmente prescindibles.
En conclusión esta capa es la que se encarga de mantener el enlace entre los dos computadores que estén transmitiendo datos de cualquier índole.
Capa de presentación (Capa 6) [editar]
Artículo principal: Nivel de presentación
El objetivo de la capa de presentación es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres (ASCII, Unicode, EBCDIC), números (little-endian tipo Intel, big-endian tipo Motorola), sonido o imágenes, los datos lleguen de manera reconocible.
Esta capa es la primera en trabajar más el contenido de la comunicación que el cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.
Esta capa también permite cifrar los datos y comprimirlos. En pocas palabras es un traductor.
Por todo ello, podemos resumir la definición de esta capa como aquella encargada de manejar la estructura de datos abstracta y realizar las conversiones de representación de los datos necesarios para la correcta interpretación de los mismos.
Capa de aplicación (Capa 7) [editar]
Artículo principal: Nivel de aplicación
Ofrece a las aplicaciones (de usuario o no) la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (POP y SMTP), gestores de bases de datos y servidor de ficheros (FTP). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.
Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente. Así por ejemplo un usuario no manda una petición "GET index.html HTTP/1.0" para conseguir una página en html, ni lee directamente el código html/xml.
Entre los protocolos (refiriéndose a protocolos genéricos, no a protocolos de la capa de aplicación de OSI) más conocidos destacan:
* HTTP (HyperText Transfer Protocol = Protocolo de Transferencia de Hipertexto) el protocolo bajo la www.
* FTP (File Transfer Protocol = Protocolo de Transferencia de Archivos) ( FTAM, fuera de TCP/IP) transferencia de ficheros.
* SMTP (Simple Mail Transfer Protocol = Protocolo Simple de Correo) (X.400 fuera de tcp/ip) envío y distribución de correo electrónico.
* POP (Post Office Protocol = Protocolo de Oficina de Correo)/IMAP: reparto de correo al usuario final.
* SSH (Secure Shell = Capa Segura) principalmente terminal remoto, aunque en realidad cifra casi cualquier tipo de transmisión.
* Telnet otro terminal remoto, ha caído en desuso por su inseguridad intrínseca, ya que las claves viajan sin cifrar por la red.
Hay otros protocolos de nivel de aplicación que facilitan el uso y administración de la red:
* SNMP (Simple Network Management Protocol)
* DNS (Domain Name Service)...
Nivel Físico (Capa 1) [editar]
Artículo principal: Nivel físico
La Capa Física del modelo de referencia OSI es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico (medios guiados: cable coaxial, cable de par trenzado, fibra óptica entre otros tipos de conexión cableada; medios no guiados: radio, infrarrojos, microondas, láser y otras redes inalámbricas); características del medio (p.e. tipo de cable o calidad del mismo; tipo de conectores normalizados o en su caso tipo de antena; etc.) como a la forma en la que se transmite la información (codificación de señal, niveles de tensión/intensidad de corriente eléctrica, modulación, tasa binaria, etc.)
Es la encargada de transmitir los bits de información a través del medio utilizado para la transmisión. Se ocupa de las propiedades físicas y características eléctricas de los diversos componentes; de la velocidad de transmisión, si ésta es uni o bidireccional (símplex, dúplex o full-dúplex). También de aspectos mecánicos de las conexiones y terminales, incluyendo la interpretación de las señales eléctricas/electromagnéticas.
Se encarga de transformar una trama de datos proveniente del nivel de enlace en una señal adecuada al medio físico utilizado en la transmisión. Estos impulsos pueden ser eléctricos (transmisión por cable) o electromagnéticos (transmisión sin cables). Estos últimos, dependiendo de la frecuencia / longitud de onda de la señal pueden ser ópticos, de micro-ondas o de radio. Cuando actúa en modo recepción el trabajo es inverso; se encarga de transformar la señal transmitida en tramas de datos binarios que serán entregados al nivel de enlace.
Sus principales funciones se pueden resumir como:
* Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
* Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
* Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
* Transmitir el flujo de bits a través del medio.
* Manejar las señales eléctricas/electromagnéticas
* Especificar cables, conectores y componentes de interfaz con el medio de transmisión, polos en un enchufe, etc.
* Garantizar la conexión (aunque no la fiabilidad de ésta).
Codificación de la señal [editar]
El nivel fisico recibe una trama binaria que debe convertir a una señal eléctrica, electromagnética u otra dependiendo del medio, de tal forma que a pesar de la degradación que pueda sufrir en el medio de transmisión vuelva a ser interpretable correctamente en el receptor.
En el caso más sencillo el medio es directamente digital, como en el caso de las fibras ópticas, dado que por ellas se transmiten pulsos de luz.
Cuando el medio no es digital hay que codificar la señal, en los casos más sencillos la codificación puede ser por pulsos de tensión (PCM o Pulse Code Modulation) (por ejemplo 5 V para los "unos" y 0 V para los "ceros"), es lo que se llama codificación unipolar RZ. Otros medios se codifican mediante presencia o ausencia de corriente. En general estas codificaciones son muy simples y no usan bien la capacidad de medio. Cuando se quiere sacar más partido al medio se usan técnicas de modulación más complejas, y suelen ser muy dependientes de las características del medio concreto.
En los casos más complejos, como suelen ser las comunicaciones inalámbricas, se pueden dar modulaciones muy sofisticadas, este es el caso de los estándares Wi-Fi, en el que se utiliza codificación OFDM.
Topología y medios compartidos [editar]
Indirectamente, el tipo de conexión que se haga en la capa física puede influir en el diseño de la capa de Enlace. Atendiendo al número de equipos que comparten un medio hay dos posibilidades:
* Conexiones punto a punto: que se establecen entre dos equipos y que no admiten ser compartidas por terceros
* Conexiones multipunto: en la que más de dos equipos pueden usar el medio.
Así por ejemplo la fibra óptica no permite fácilmente conexiones multipunto (sin embargo, véase FDDI) y por el contrario las conexiones inalámbricas son inherentemente multipunto (sin embargo, véanse los enlaces infrarrojos). Hay topologías por ejemplo la topología de anillo, que permiten conectar muchas máquinas a partir de una serie de conexiones punto a punto(Directa entre dos máquinas).
Equipos adicionales [editar]
A la hora de diseñar una red hay equipos adicionales que pueden funcionar a nivel físico, se trata de los repetidores, en esencia se trata de equipos que amplifican la señal, pudiendo también regenerarla. En las redes Ethernet con la opción de cableado de par trenzado (la más común hoy por hoy) se emplean unos equipos de interconexión llamados concentradores (repetidores en las redes 10Base-2) más conocidos por su nombre en inglés (hubs) que convierten una topología física en estrella en un bus lógico y que actúan exclusivamente a nivel físico, a diferencia de los conmutadores (switches) que actúan a nivel de enlace.
Capa de enlace de datos (Capa 2) [editar]
Artículo principal: Capa de enlace de datos
Cualquier medio de transmisión debe ser capaz de proporcionar una transmisión sin errores, es decir, un tránsito de datos fiable a través de un enlace físico. Debe crear y reconocer los límites de las tramas, así como resolver los problemas derivados del deterioro, pérdida o duplicidad de las tramas. También puede incluir algún mecanismo de regulación del tráfico que evite la saturación de un receptor que sea más lento que el emisor.
La capa de enlace de datos se ocupa del direccionamiento físico, de la topología de la red, del acceso a la red, de la notificación de errores, de la distribución ordenada de tramas y del control del flujo.
Se hace un direccionamiento de los datos en la red ya sea en la distribución adecuada desde un emisor a un receptor, la notificación de errores, de la topología de la red de cualquier tipo. La tarjeta NIC (Network Interface Card, Tarjeta de Interfaz de Red en español o Tarjeta de Red) que se encarga de que tengamos conexión, posee una dirección MAC (control de acceso al medio) y la LLC (control de enlace lógico).
Los Switches realizan su función en esta capa siempre y cuando este encendido el nodo.
Capa de red (Capa 3) [editar]
Artículo principal: Capa de red
El objetivo de la capa de red es hacer que los datos lleguen desde el origen al destino, aun cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominan en castellano encaminadores, aunque es más frecuente encontrar el nombre inglés routers y, en ocasiones enrutadores.
Adicionalmente la capa de red lleva un control de la congestión de red, que es el fenómeno que se produce cuando una saturación de un nodo tira abajo toda la red (similar a un atasco en un cruce importante en una ciudad grande). La PDU(Unidad de Datos del Protocolo, por sus siglas en inglés) de la capa 3 es el paquete.
Los routers trabajan en esta capa, aunque pueden actuar como switch de nivel 2 en determinados casos, dependiendo de la función que se le asigne. Los firewalls actúan sobre esta capa principalmente, para descartar direcciones de máquinas.
En este nivel se realiza el direccionamiento lógico y la determinación de la ruta de los datos hasta su receptor final.
Capa de transporte (Capa 4) [editar]
Artículo principal: Capa Transporte
Su función básica es aceptar los datos enviados por las capas superiores, dividirlos en pequeñas partes si es necesario, y pasarlos a la capa de red. En el caso del modelo OSI, también se asegura que lleguen correctamente al otro lado de la comunicación. Otra característica a destacar es que debe aislar a las capas superiores de las distintas posibles implementaciones de tecnologías de red en las capas inferiores, lo que la convierte en el corazón de la comunicación. En esta capa se proveen servicios de conexión para la capa de sesión que serán utilizados finalmente por los usuarios de la red al enviar y recibir paquetes. Estos servicios estarán asociados al tipo de comunicación empleada, la cual puede ser diferente según el requerimiento que se le haga a la capa de transporte. Por ejemplo, la comunicación puede ser manejada para que los paquetes sean entregados en el orden exacto en que se enviaron, asegurando una comunicación punto a punto libre de errores, o sin tener en cuenta el orden de envío. Una de las dos modalidades debe establecerse antes de comenzar la comunicación para que una sesión determinada envíe paquetes, y ése será el tipo de servicio brindado por la capa de transporte hasta que la sesión finalice. De la explicación del funcionamiento de esta capa se desprende que no está tan encadenada a capas inferiores como en el caso de las capas 1 a 3, sino que el servicio a prestar se determina cada vez que una sesión desea establecer una comunicación. Todo el servicio que presta la capa está gestionado por las cabeceras que agrega al paquete a transmitir.
En resumen, podemos definir a la capa de transporte como:
Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la de destino, independizándolo del tipo de red física que se esté utilizando. La UDP de la capa 4 se llama Segmentos. sus protocolos son TCP y UDP el primero orientado a conexión y el otro sin conexión
Capa de sesión (Capa 5) [editar]
Artículo principal: Nivel de sesión
Esta capa es la que se encarga de mantener y controlar el diálogo establecido entre los dos computadores que están transmitiendo datos de cualquier índole. Ofrece varios servicios que son cruciales para la comunicación, como son:
* Control de la sesión a establecer entre el emisor y el receptor (quién transmite, quién escucha y seguimiento de ésta).
* Control de la concurrencia (que dos comunicaciones a la misma operación crítica no se efectúen al mismo tiempo).
* Mantener puntos de verificación (checkpoints), que sirven para que, ante una interrupción de transmisión por cualquier causa, la misma se pueda reanudar desde el último punto de verificación en lugar de repetirla desde el principio.
Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcial o totalmente prescindibles.
En conclusión esta capa es la que se encarga de mantener el enlace entre los dos computadores que estén transmitiendo datos de cualquier índole.
Capa de presentación (Capa 6) [editar]
Artículo principal: Nivel de presentación
El objetivo de la capa de presentación es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres (ASCII, Unicode, EBCDIC), números (little-endian tipo Intel, big-endian tipo Motorola), sonido o imágenes, los datos lleguen de manera reconocible.
Esta capa es la primera en trabajar más el contenido de la comunicación que el cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.
Esta capa también permite cifrar los datos y comprimirlos. En pocas palabras es un traductor.
Por todo ello, podemos resumir la definición de esta capa como aquella encargada de manejar la estructura de datos abstracta y realizar las conversiones de representación de los datos necesarios para la correcta interpretación de los mismos.
Capa de aplicación (Capa 7) [editar]
Artículo principal: Nivel de aplicación
Ofrece a las aplicaciones (de usuario o no) la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (POP y SMTP), gestores de bases de datos y servidor de ficheros (FTP). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.
Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente. Así por ejemplo un usuario no manda una petición "GET index.html HTTP/1.0" para conseguir una página en html, ni lee directamente el código html/xml.
Entre los protocolos (refiriéndose a protocolos genéricos, no a protocolos de la capa de aplicación de OSI) más conocidos destacan:
* HTTP (HyperText Transfer Protocol = Protocolo de Transferencia de Hipertexto) el protocolo bajo la www.
* FTP (File Transfer Protocol = Protocolo de Transferencia de Archivos) ( FTAM, fuera de TCP/IP) transferencia de ficheros.
* SMTP (Simple Mail Transfer Protocol = Protocolo Simple de Correo) (X.400 fuera de tcp/ip) envío y distribución de correo electrónico.
* POP (Post Office Protocol = Protocolo de Oficina de Correo)/IMAP: reparto de correo al usuario final.
* SSH (Secure Shell = Capa Segura) principalmente terminal remoto, aunque en realidad cifra casi cualquier tipo de transmisión.
* Telnet otro terminal remoto, ha caído en desuso por su inseguridad intrínseca, ya que las claves viajan sin cifrar por la red.
Hay otros protocolos de nivel de aplicación que facilitan el uso y administración de la red:
* SNMP (Simple Network Management Protocol)
* DNS (Domain Name Service)...
Tarea 5 Que es un marco?
En las redes informáticas y de telecomunicaciones, un marco digital es una unidad de transmisión de datos o paquetes de datos que incluye sincronización de cuadros, es decir, una secuencia de bits o símbolos por lo que es posible que el receptor para detectar el comienzo y el final del paquete en el flujo de símbolos o bits. If a receiver is connected to the system in the middle of a frame tranmission, it ignores the data until it detects a new frame synchronization sequence. Si el receptor está conectado al sistema en el medio de una tranmission marco, se hace caso omiso de los datos hasta que se detecta una nueva secuencia de sincronización de cuadros.
In computer networking , a frame is a data packet on the Layer 2 of the OSI model . [ 1 ] A frame is "the unit of transmission in a link layer protocol, and consists of a link-layer header followed by a packet." [ 2 ] Examples are Ethernet frames (maximum 1500 byte plus overhead), PPP frames and V.42 modem frames. En las redes de computadoras, un cuadro es un paquete de datos en la capa 2 del modelo OSI. [1] Un marco es "la unidad de transmisión en un protocolo de capa de enlace, y consiste en un enlace de cabecera de la capa seguido de un paquete." [2] Ejemplos de ello son las tramas Ethernet (1500 bytes más el máximo de los gastos generales), los marcos PPP y los marcos de módem V.42.
In telecommunications , specifically time-division multiplex (TDM) and time-division multiple access (TDMA), a frame is a cyclically repeated data block that consists of a fixed number of time slots , one for each logical TDM channel or TDMA transmitter. En las telecomunicaciones, específicamente multiplexado por división de tiempo (TDM) y división en el tiempo de acceso múltiple (TDMA), un marco es un ciclo repetido bloque de datos que consiste en un número fijo de ranuras de tiempo, uno para cada canal lógico TDM o transmisor TDMA. In this consist, a frame is typically an entity at the physical layer. En este compuesto, un marco general, es una entidad en la capa física. TDM application examples are SONET/SDH and the ISDN circuit switched B-channel. TDM son ejemplos de aplicación de SONET / SDH y el circuito de conmutación de B-ISDN canal. TDMA examples are the 2G and 3G circuit switched cellular voice services. Ejemplos son los de TDMA de 2G y 3G de conmutación de circuitos de servicios de voz celular. The frame is also an entity for time-division duplex , where the mobile terminal may transmit during some timeslots and receive during others. El marco es también una entidad de dúplex por división de tiempo, donde el terminal móvil puede transmitir durante algunos intervalos de tiempo y recibir durante los demás.
In computer networking , a frame is a data packet on the Layer 2 of the OSI model . [ 1 ] A frame is "the unit of transmission in a link layer protocol, and consists of a link-layer header followed by a packet." [ 2 ] Examples are Ethernet frames (maximum 1500 byte plus overhead), PPP frames and V.42 modem frames. En las redes de computadoras, un cuadro es un paquete de datos en la capa 2 del modelo OSI. [1] Un marco es "la unidad de transmisión en un protocolo de capa de enlace, y consiste en un enlace de cabecera de la capa seguido de un paquete." [2] Ejemplos de ello son las tramas Ethernet (1500 bytes más el máximo de los gastos generales), los marcos PPP y los marcos de módem V.42.
In telecommunications , specifically time-division multiplex (TDM) and time-division multiple access (TDMA), a frame is a cyclically repeated data block that consists of a fixed number of time slots , one for each logical TDM channel or TDMA transmitter. En las telecomunicaciones, específicamente multiplexado por división de tiempo (TDM) y división en el tiempo de acceso múltiple (TDMA), un marco es un ciclo repetido bloque de datos que consiste en un número fijo de ranuras de tiempo, uno para cada canal lógico TDM o transmisor TDMA. In this consist, a frame is typically an entity at the physical layer. En este compuesto, un marco general, es una entidad en la capa física. TDM application examples are SONET/SDH and the ISDN circuit switched B-channel. TDM son ejemplos de aplicación de SONET / SDH y el circuito de conmutación de B-ISDN canal. TDMA examples are the 2G and 3G circuit switched cellular voice services. Ejemplos son los de TDMA de 2G y 3G de conmutación de circuitos de servicios de voz celular. The frame is also an entity for time-division duplex , where the mobile terminal may transmit during some timeslots and receive during others. El marco es también una entidad de dúplex por división de tiempo, donde el terminal móvil puede transmitir durante algunos intervalos de tiempo y recibir durante los demás.
Tara 5 Que es data frame?
(trama de red o marco de datos). En redes de computadora, un frame (o marco o trama) es un paquete de datos de longitud fija o variable, que ha sido codificado por un protocolo de comunicaciones en la capa de enlace de datos, para la transmisión digital sobre un enlace nodo-a-nodo.
Podría ser un sinónimo de paquete de datos (o paquete de red), aunque se aplica principalmente en los niveles del modelo OSI más bajos, especialmente en el nivel de enlace de datos.
Una trama suele contar con una cabecera, datos y cola. En la cola suele estar algún chequeo de errores. En la cabecera habrá campos de control de protocolo. La parte de datos es la que quiera transmitir en nivel de comunicación superior, típicamente el Nivel de red.
Podría ser un sinónimo de paquete de datos (o paquete de red), aunque se aplica principalmente en los niveles del modelo OSI más bajos, especialmente en el nivel de enlace de datos.
Una trama suele contar con una cabecera, datos y cola. En la cola suele estar algún chequeo de errores. En la cabecera habrá campos de control de protocolo. La parte de datos es la que quiera transmitir en nivel de comunicación superior, típicamente el Nivel de red.
Tarea 4 Que es Topología de red
a topología de red se define como la cadena de comunicación que los nodos conforman una red usada para comunicarse. Un ejemplo claro de esto es la topología de árbol, la cual es llamada así por su apariencia estética, por la cual puede comenzar con la inserción del servicio de internet desde el proveedor, pasando por el router, luego por un switch y este deriva a otro switch u otro router o sencillamente a los hosts (estaciones de trabajo), el resultado de esto es una red con apariencia de árbol porque desde el primer router que se tiene se ramifica la distribución de internet dando lugar a la creación de nuevas redes y/o subredes tanto internas como externas. Además de la topología estética, se puede dar una topología lógica a la red y eso dependerá de lo que se necesite en el momento.
En algunos casos se puede usar la palabra arquitectura en un sentido relajado para hablar a la vez de la disposición física del cableado y de cómo el protocolo considera dicho cableado. Así, en un anillo con una MAU podemos decir que tenemos una topología en anillo, o de que se trata de un anillo con topología en estrella.
La topología de red la determina únicamente la configuración de las conexiones entre nodos. La distancia entre los nodos, las interconexiones físicas, las tasas de transmisión y/o los tipos de señales no pertenecen a la topología de la red, aunque pueden verse afectados por la misma.
En algunos casos se puede usar la palabra arquitectura en un sentido relajado para hablar a la vez de la disposición física del cableado y de cómo el protocolo considera dicho cableado. Así, en un anillo con una MAU podemos decir que tenemos una topología en anillo, o de que se trata de un anillo con topología en estrella.
La topología de red la determina únicamente la configuración de las conexiones entre nodos. La distancia entre los nodos, las interconexiones físicas, las tasas de transmisión y/o los tipos de señales no pertenecen a la topología de la red, aunque pueden verse afectados por la misma.
Tarea 4 Que es Topología
La Topología es el estudio de aquellas propiedades de los cuerpos geométricos que permanecen inalteradas por transformaciones continuas.[1] Es una disciplina matemática que estudia las propiedades de los espacios topológicos y las funciones continuas. La Topología se interesa por conceptos como proximidad, número de agujeros, el tipo de consistencia (o textura) que presenta un objeto, comparar objetos y clasificar, entre otros múltiples atributos donde destacan conectividad, compacidad, metricidad o metrizabilidad, etcétera.
Los matemáticos usan la palabra topología con dos sentidos: informalmente es el sentido arriba especificado, y de manera formal se refieren a una cierta familia de subconjuntos de un conjunto dado, familia que cumple unas reglas sobre la unión y la intersección. Este segundo sentido puede verse desarrollado en el artículo espacio topológico.
Los matemáticos usan la palabra topología con dos sentidos: informalmente es el sentido arriba especificado, y de manera formal se refieren a una cierta familia de subconjuntos de un conjunto dado, familia que cumple unas reglas sobre la unión y la intersección. Este segundo sentido puede verse desarrollado en el artículo espacio topológico.
Tarea 4 Protocolo
En informática, un protocolo es un conjunto de reglas usadas por computadoras para comunicarse unas con otras a través de una red. Un protocolo es una convención o estándar que controla o permite la conexión, comunicación, y transferencia de datos entre dos puntos finales. En su forma más simple, un protocolo puede ser definido como las reglas que dominan la sintaxis, semántica y sincronización de la comunicación. Los protocolos pueden ser implementados por hardware, software, o una combinación de ambos. A su más bajo nivel, un protocolo define el comportamiento de una conexión de hardware.
Tarea 4 NIC
Network Information Center o Centro de Información sobre la Red, más conocido por su acrónimo NIC, es un grupo de personas, una entidad o una institución encargada de asignar dominios de internet bajo su dominio de red sean genéricos o de países, a personas naturales o empresas que mediante un DNS pueden montar sitios de Internet mediante un proveedor de hospedaje.
Básicamente existe un NIC por cada país en el mundo y ese NIC es el responsable por todos los dominios con terminación correspondiente a dicho país, por ejemplo: NIC México es el encargado de todos los dominios con terminación .mx, la cual es la terminación correspondiente a dominios de México.
Básicamente existe un NIC por cada país en el mundo y ese NIC es el responsable por todos los dominios con terminación correspondiente a dicho país, por ejemplo: NIC México es el encargado de todos los dominios con terminación .mx, la cual es la terminación correspondiente a dominios de México.
Tarea 4 Como funciona un Gps
Paso 1: La Triangulación desde los satélites
Aunque pueda parecer improbable, la idea general detrás del GPS es utilizar los satélites en el espacio como puntos de referencia para ubicaciones aquí en la tierra.
Esto se logra mediante una muy, pero muy exacta, medición de nuestra distancia hacia tres satélites, lo que nos permite "triangular" nuestra posición en cualquier parte de la tierra.
Olvidémonos por un instante sobre cómo mide nuestro GPS dicha distancia. Lo veremos luego. Consideremos primero como la medición de esas distancias nos permiten ubicarnos en cualquier punto de la tierra.
La gran idea, Geométricamente, es:
Supongamos que medimos nuestra distancia al primer satélite y resulta ser de 11.000 millas (20.000 Km)
Sabiendo que estamos a 11.000 millas de un satélite determinado no podemos, por lo tanto, estar en cualquier punto del universo sino que esto limita nuestra posición a la superficie de una esfera que tiene como centro dicho satélite y cuyo radio es de 11.000 millas.
A continuación medimos nuestra distancia a un segundo satélite y descubrimos que estamos a 12.000 millas del mismo.
Esto nos dice que no estamos solamente en la primer esfera, correspondiente al primer satélite, sino también sobre otra esfera que se encuentra a 12.000 millas del segundo satélite. En otras palabras, estamos en algún lugar de la circunferencia que resulta de la intersección de las dos esferas.
Si ahora medimos nuestra distancia a un tercer satélite y descubrimos que estamos a 13.000 millas del mismo, esto limita nuestra posición aún mas, a los dos puntos en los cuales la esfera de 13.000 millas corta la circunferencia que resulta de la intersección de las dos primeras esferas.
O sea, que midiendo nuestra distancia a tres satélites limitamos nuestro posicionamiento a solo dos puntos posibles.
Para decidir cual de ellos es nuestra posición verdadera, podríamos efectuar una nueva medición a un cuarto satélite. Pero normalmente uno de los dos puntos posibles resulta ser muy improbable por su ubicación demasiado lejana de la superficie terrestre y puede ser descartado sin necesidad de mediciones posteriores.
Una cuarta medición, de todos modos es muy conveniente por otra razón que veremos mas adelante.
Veamos ahora como el sistema mide las distancias a los satélites.
En Resumen: Triangulación
* Nuestra posición se calcula en base a la medición de las distancias a los satélites
* Matemáticamente se necesitan cuatro mediciones de distancia a los satélites para determinar la posición exacta
* En la práctica se resuelve nuestra posición con solo tres mediciones si podemos descartar respuestas ridículas o utilizamos ciertos trucos.
* Se requiere de todos modos una cuarta medición por razones técnicas que luego veremos.
Paso 2: Midiendo las distancias a los satélites
Sabemos ahora que nuestra posición se calcula a partir de la medición de la distancia hasta por lo menos tres satélites. Pero, ¿cómo podemos medir la distancia hacia algo que está flotando en algún lugar en el espacio?. Lo hacemos midiendo el tiempo que tarda una señal emitida por el satélite en llegar hasta nuestro receptor de GPS.
La gran idea, Matemáticamente, es:
Toda la idea gira alrededor de aquellos problemas sobre la velocidad que resolvíamos en la secundaria, Recordemos que "Si un auto viaja a 60 kilómetros por hora durante dos horas, ¿qué distancia recorrió?
Velocidad (60 km/h) x Tiempo (2 horas) = Distancia (120 km)
En el caso del GPS estamos midiendo una señal de radio, que sabemos que viaja a la velocidad de la luz, alrededor de 300.000 km por segundo.
Nos queda el problema de medir el tiempo de viaje de la señal (Que, obviamente, viene muy rápido)
Sincronicemos nuestros relojes
El problema de la medición de ese tiempo es complicado. Los tiempos son extremadamente cortos. Si el satélite estuviera justo sobre nuestras cabezas, a unos 20.000 km de altura, el tiempo total de viaje de la señal hacia nosotros sería de algo mas de 0.06 segundos. Estamos necesitando relojes muy precisos. Ya veremos como lo resolvemos.
Pero, aún admitiendo que tenemos relojes con la suficiente precisión, ¿cómo medimos el tiempo de viaje de la señal?
Supongamos que nuestro GPS, por un lado, y el satélite, por otro, generan una señal auditiva en el mismo instante exacto. Supongamos también que nosotros, parados al lado de nuestro receptor de GPS, podamos oír ambas señales (Obviamente es imposible "oír" esas señales porque el sonido no se propaga en el vacío).
Oiríamos dos versiones de la señal. Una de ellas inmediatamente, la generada por nuestro receptor GPS y la otra con cierto atraso, la proveniente del satélite, porque tuvo que recorrer alrededor de 20.000 km para llegar hasta nosotros. Podemos decir que ambas señales no están sincronizadas.
Si quisiéramos saber cual es la magnitud de la demora de la señal proveniente del satélite podemos retardar la emisión de la señal de nuestro GPS hasta lograr la perfecta sincronización con la señal que viene del satélite.
El tiempo de retardo necesario para sincronizar ambas señales es igual al tiempo de viaje de la señal proveniente del satélite. Supongamos que sea de 0.06 segundos. Conociendo este tiempo, lo multiplicamos por la velocidad de la luz y ya obtenemos la distancia hasta el satélite.
Tiempo de retardo (0.06 seg) x Vel. de la luz (300.000 km/seg) = Dist. (18.000 km)
Así es, básicamente, como funciona el GPS.
La señal emitida por nuestro GPS y por el satélite es algo llamado "Código Pseudo Aleatorio" (Pseudo Random Code). La palabra "Aleatorio" significa algo generado por el azar.
¿Un Código Aleatorio?
Este Código Pseudo Aleatorio es una parte fundamental del GPS. Físicamente solo se trata de una secuencia o código digital muy complicado. O sea una señal que contiene una sucesión muy complicada de pulsos "on" y "off", como se pueden ver:
La señal es tan complicada que casi parece un ruido eléctrico generado por el azar. De allí su denominación de "Pseudo-Aleatorio".
Hay varias y muy buenas razones para tal complejidad. La complejidad del código ayuda a asegurarnos que el receptor de GPS no se sintonice accidentalmente con alguna otra señal. Siendo el modelo tan complejo es altamente improbable que una señal cualquiera pueda tener exactamente la misma secuencia.
Dado que cada uno de los satélites tiene su propio y único Código Pseudo Aleatorio, esta complejidad también garantiza que el receptor no se confunda accidentalmente de satélite. De esa manera, también es posible que todos los satélites trasmitan en la misma frecuencia sin interferirse mutuamente. Esto también complica a cualquiera que intente interferir el sistema desde el exterior al mismo. El Código Pseudo Aleatorio le da la posibilidad al Departamento de Defensa de EEUU de controlar el acceso al sistema GPS.
Pero hay otra razón para la complejidad del Código Pseudo Aleatorio, una razón que es crucial para conseguir un sistema GPS económico.
El código permite el uso de la "teoría de la información" para amplificar las señales de GPS. Por esa razón las débiles señales emitidas por los satélites pueden ser captadas por los receptores de GPS sin el uso de grandes antenas.
Cuando comenzamos a explicar el mecanismo de emisión de las señales por el GPS y el satélite, asumimos que ambos comenzaban la emisión de la señal exactamente al mismo tiempo. ¿Pero cómo podemos asegurarnos que todo esté perfectamente sincronizado?
Ya veremos...
En Resumen: Midiendo la distancia
* La distancia al satélite se determina midiendo el tiempo que tarda una señal de radio, emitida por el mismo, en alcanzar nuestro receptor de GPS.
* Para efectuar dicha medición asumimos que ambos, nuestro receptor GPS y el satélite, están generando el mismo Código Pseudo Aleatorio en exactamente el mismo momento.
* Comparando cuanto retardo existe entre la llegada del Código Pseudo Aleatorio proveniente del satélite y la generación del código de nuestro receptor de GPS, podemos determinar cuanto tiempo le llevó a dicha señal llegar hasta nosotros.
* Multiplicamos dicho tiempo de viaje por la velocidad de la luz y obtenemos la distancia al satélite.
Paso 3: Control perfecto del tiempo
Si la medición del tiempo de viaje de una señal de radio es clave para el GPS, los relojes que empleamos deben ser exactísimos, dado que si miden con un desvío de un milésimo de segundo, a la velocidad de la luz, ello se traduce en un error de 300 km!
Por el lado de los satélites, el timing es casi perfecto porque llevan a bordo relojes atómicos de increíble precisión.
¿Pero que pasa con nuestros receptores GPS, aquí en la tierra?
Recordemos que ambos, el satélite y el receptor GPS, deben ser capaces de sincronizar sus Códigos Pseudo Aleatorios para que el sistema funcione.
Si nuestros receptores GPS tuvieran que alojar relojes atómicos (Cuyo costo está por encima de los 50 a 100.000 U$S) la tecnología resultaría demasiado costosa y nadie podría acceder a ellos.
Por suerte los diseñadores del sistema GPS encontraron una brillante solución que nos permite resolver el problema con relojes mucho menos precisos en nuestros GPS. Esta solución es uno de los elementos clave del sistema GPS y, como beneficio adicional, significa que cada receptor de GPS es en esencia un reloj atómico por su precisión.
El secreto para obtener un timing tan perfecto es efectuar una medición satelital adicional.
Resulta que si tres mediciones perfectas pueden posicionar un punto en un espacio tridimensional, cuatro mediciones imperfectas pueden lograr lo mismo.
Esta idea es fundamental para el funcionamiento del sistema GPS, pero su explicación detallada excede los alcances de la presente exposición. De todos modos, aquí va un resumen somero:
Una medición adicional remedia el desfasaje del timing.
Si todo fuera perfecto (es decir que los relojes de nuestros receptores GPS lo fueran), entonces todos los rangos (distancias) a los satélites se intersectarían en un único punto (que indica nuestra posición). Pero con relojes imperfectos, una cuarta medición, efectuada como control cruzado, NO intersectará con los tres primeros.
De esa manera la computadora de nuestro GPS detectará la discrepancia y atribuirá la diferencia a una sincronización imperfecta con la hora universal.
Dado que cualquier discrepancia con la hora universal afectará a las cuatro mediciones, el receptor buscará un factor de corrección único que siendo aplicado a sus mediciones de tiempo hará que los rangos coincidan en un solo punto.
Dicha corrección permitirá al reloj del receptor ajustarse nuevamente a la hora universal y de esa manera tenemos un reloj atómico en la palma de nuestra mano!
Una vez que el receptor de GPS aplica dicha corrección al resto de sus mediciones, obtenemos un posicionamiento preciso.
Una consecuencia de este principio es que cualquier GPS decente debe ser capaz de sintonizar al menos cuatro satélites de manera simultánea. En la práctica, casi todos los GPS en venta actualmente, acceden a mas de 6, y hasta a 12, satélites simultáneamente.
Ahora bien, con el Código Pseudo Aleatorio como un pulso confiable para asegurar la medición correcta del tiempo de la señal y la medición adicional como elemento de sincronización con la hora universal, tenemos todo lo necesario para medir nuestra distancia a un satélite en el espacio.
Pero, para que la triangulación funcione necesitamos conocer no sólo la distancia sino que debemos conocer dónde están los satélites con toda exactitud.
Veremos cómo lo conseguimos.
En Resumen: Obtener un Timing Perfecto
* Un timing muy preciso es clave para medir la distancia a los satélites
* Los satélites son exactos porque llevan un reloj atómico a bordo.
* Los relojes de los receptores GPS no necesitan ser tan exactos porque la medición de un rango a un satélite adicional permite corregir los errores de medición.
Paso 4: Conocer dónde están los satélites en el espacio
A lo largo de este trabajo hemos estado asumiendo que conocemos dónde están los satélites en sus órbitas y de esa manera podemos utilizarlos como puntos de referencia.
¿Pero, cómo podemos saber donde están exactamente? Todos ellos están flotando a unos 20.000 km de altura en el espacio.
Un satélite a gran altura se mantiene estable
La altura de 20.000 km es en realidad un gran beneficio para este caso, porque algo que está a esa altura está bien despejado de la atmósfera. Eso significa que orbitará de manera regular y predecible mediante ecuaciones matemáticas sencillas.
La Fuerza Aérea de los EEUU colocó cada satélite de GPS en una órbita muy precisa, de acuerdo al Plan Maestro de GPS.
En tierra, todos los receptores de GPS tienen un almanaque programado en sus computadoras que les informan donde está cada satélite en el espacio, en cada momento.
El Control Constante agrega precisión
Las órbitas básicas son muy exactas pero con el fin de mantenerlas así, los satélites de GPS son monitoreados de manera constante por el Departamento de Defensa.
Ellos utilizan radares muy precisos para controlar constantemente la exacta altura, posición y velocidad de cada satélite.
Los errores que ellos controlan son los llamados errores de efemérides, o sea evolución orbital de los satélites. Estos errores se generan por influencias gravitacionales del sol y de la luna y por la presión de la radiación solar sobre los satélites.
Estos errores son generalmente muy sutiles pero si queremos una gran exactitud debemos tenerlos en cuenta.
Corrigiendo el mensaje
Una vez que el Departamento de Defensa ha medido la posición exacta de un satélite, vuelven a enviar dicha información al propio satélite. De esa manera el satélite incluye su nueva posición corregida en la información que transmite a través de sus señales a los GPS.
Esto significa que la señal que recibe un receptor de GPS no es solamente un Código Pseudo Aleatorio con fines de timing. También contiene un mensaje de navegación con información sobre la órbita exacta del satélite
Con un timing perfecto y la posición exacta del satélite podríamos pensar que estamos en condiciones de efectuar cálculos perfectos de posicionamiento. Sin embargo debemos resolver otros problemas.
En Resumen: Posicionamiento de los Satélites
* Para utilizar los satélites como puntos de referencia debemos conocer exactamente donde están en cada momento.
* Los satélites de GPS se ubican a tal altura que sus órbitas son muy predecibles.
* El Departamento de Defensa controla y mide variaciones menores en sus órbitas.
* La información sobre errores es enviada a los satélites para que estos a su vez retransmitan su posición corregida junto con sus señales de timing.
Paso 5: Corrigiendo Errores
Hasta ahora hemos estado tratando los cálculos del sistema GPS de manera muy abstracta, como si todo el proceso ocurriera en el vacío. Pero en el mundo real hay muchas cosas que le pueden suceder a una señal de GPS para transformarla en algo menos que matemáticamente perfecta.
Para aprovechar al máximo las ventajas del sistema un buen receptor de GPS debe tener en cuenta una amplia variedad de errores posibles. Veamos que es lo que debemos enfrentar.
Un Rudo Viaje a través de la atmósfera
En primer lugar, una de las presunciones básicas que hemos estado usando a lo largo de este trabajo no es exactamente cierta. Hemos estado afirmando que podemos calcular la distancia a un satélite multiplicando el tiempo de viaje de su señal por la velocidad de la luz. Pero la velocidad de la luz sólo es constante en el vacío.
Una señal de GPS pasa a través de partículas cargadas en su paso por la ionosfera y luego al pasar a través de vapor de agua en la troposfera pierde algo de velocidad, creando el mismo efecto que un error de precisión en los relojes.
Hay un par de maneras de minimizar este tipo de error. Por un lado, podríamos predecir cual sería el error tipo de un día promedio. A esto se lo llama modelación y nos puede ayudar pero, por supuesto, las condiciones atmosféricas raramente se ajustan exactamente el promedio previsto.
Otra manera de manejar los errores inducidos por la atmósfera es comparar la velocidad relativa de dos señales diferentes. Esta medición de doble frecuencia es muy sofisticada y solo es posible en receptores GPS muy avanzados.
Un Rudo Viaje sobre la tierra
Los problemas para la señal de GPS no terminan cuando llega a la tierra. La señal puede rebotar varias veces debido a obstrucciones locales antes de ser captada por nuestro receptor GPS.
Este error es similar al de las señales fantasma que podemos ver en la recepción de televisión. Los buenos receptores GPS utilizan sofisticados sistemas de rechazo para minimizar este problema.
Problemas en el satélite
Aún siendo los satélites muy sofisticados no tienen en cuenta minúsculos errores en el sistema.
Los relojes atómicos que utilizan son muy, pero muy, precisos, pero no son perfectos. Pueden ocurrir minúsculas discrepancias que se transforman en errores de medición del tiempo de viaje de las señales.
Y, aunque la posición de los satélites es controlada permanentemente, tampoco pueden ser controlados a cada segundo. De esa manera pequeñas variaciones de posición o de efemérides pueden ocurrir entre los tiempos de monitoreo.
Algunos ángulos son mejores que otros
La geometría básica por si misma puede magnificar estos errores mediante un principio denominado "Dilución Geométrica de la Precisión", o DGDP
Suena complicado pero el principio es simple.
En la realidad suele haber mas satélites disponibles que los que el receptor GPS necesita para fijar una posición, de manera que el receptor toma algunos e ignora al resto.
Si el receptor toma satélites que están muy juntos en el cielo, las circunferencias de intersección que definen la posición se cruzarán a ángulos con muy escasa diferencia entre sí. Esto incrementa el área gris o margen de error acerca de una posición.
Si el receptor toma satélites que están ampliamente separados, las circunferencias intersectan a ángulos prácticamente rectos y ello minimiza el margen de error.
Los buenos receptores son capaces de determinar cuales son los satélites que dan el menor error por Dilución Geométrica de la Precisión.
¡Errores Intencionales!
Aunque resulte difícil de creer, el mismo Gobierno que pudo gastar 12.000 Millones de dólares para desarrollar el sistema de navegación más exacto del mundo, está degradando intencionalmente su exactitud. Dicha política se denomina "Disponibilidad Selectiva" y pretende asegurar que ninguna fuerza hostil o grupo terrorista pueda utilizar el GPS para fabricar armas certeras.
Básicamente, el Departamento de Defensa introduce cierto "ruido" en los datos del reloj satelital, lo que a su vez se traduce en errores en los cálculos de posición. El Departamento de Defensa también puede enviar datos orbitales ligeramente erróneos a los satélites que estos reenvían a los receptores GPS como parte de la señal que emiten.
Estos errores en su conjunto son la mayor fuente unitaria de error del sistema GPS. Los receptores de uso militar utilizan una clave encriptada para eliminar la Disponibilidad Selectiva y son, por ello, mucho más exactos.
La Dsiponibilidad Selectiva fue interrumpida por un decreto del presidente Clinton, con efecto desde el 2 de mayo de 2000. El Departamento de Defensa de los Estados Unidos se reserva el derecho de reimplantarla cuando lo considere conveniente a los intereses de la Seguridad de los Estados Unidos y ademas dispone de la tecnología necesaria para implantarla en areas geograficas limitadas. Estas condiciones permitieron al Presidente Clinton supenderla.
La línea final
Afortunadamente todos esos errores no suman demasiado error total. Existe una forma de GPS, denominada GPS Diferencial, que reduce significativamente estos problemas.
En Resumen: Corrección de Errores
* La ionosfera y la troposfera causan demoras en la señal de GPS que se traducen en errores de posicionamiento.
* Algunos errores se pueden corregir mediante modelación y correcciones matemáticas.
* La configuración de los satélites en el cielo puede magnificar otros errores
* El GPS Diferencial puede eliminar casi todos los errores
Aunque pueda parecer improbable, la idea general detrás del GPS es utilizar los satélites en el espacio como puntos de referencia para ubicaciones aquí en la tierra.
Esto se logra mediante una muy, pero muy exacta, medición de nuestra distancia hacia tres satélites, lo que nos permite "triangular" nuestra posición en cualquier parte de la tierra.
Olvidémonos por un instante sobre cómo mide nuestro GPS dicha distancia. Lo veremos luego. Consideremos primero como la medición de esas distancias nos permiten ubicarnos en cualquier punto de la tierra.
La gran idea, Geométricamente, es:
Supongamos que medimos nuestra distancia al primer satélite y resulta ser de 11.000 millas (20.000 Km)
Sabiendo que estamos a 11.000 millas de un satélite determinado no podemos, por lo tanto, estar en cualquier punto del universo sino que esto limita nuestra posición a la superficie de una esfera que tiene como centro dicho satélite y cuyo radio es de 11.000 millas.
A continuación medimos nuestra distancia a un segundo satélite y descubrimos que estamos a 12.000 millas del mismo.
Esto nos dice que no estamos solamente en la primer esfera, correspondiente al primer satélite, sino también sobre otra esfera que se encuentra a 12.000 millas del segundo satélite. En otras palabras, estamos en algún lugar de la circunferencia que resulta de la intersección de las dos esferas.
Si ahora medimos nuestra distancia a un tercer satélite y descubrimos que estamos a 13.000 millas del mismo, esto limita nuestra posición aún mas, a los dos puntos en los cuales la esfera de 13.000 millas corta la circunferencia que resulta de la intersección de las dos primeras esferas.
O sea, que midiendo nuestra distancia a tres satélites limitamos nuestro posicionamiento a solo dos puntos posibles.
Para decidir cual de ellos es nuestra posición verdadera, podríamos efectuar una nueva medición a un cuarto satélite. Pero normalmente uno de los dos puntos posibles resulta ser muy improbable por su ubicación demasiado lejana de la superficie terrestre y puede ser descartado sin necesidad de mediciones posteriores.
Una cuarta medición, de todos modos es muy conveniente por otra razón que veremos mas adelante.
Veamos ahora como el sistema mide las distancias a los satélites.
En Resumen: Triangulación
* Nuestra posición se calcula en base a la medición de las distancias a los satélites
* Matemáticamente se necesitan cuatro mediciones de distancia a los satélites para determinar la posición exacta
* En la práctica se resuelve nuestra posición con solo tres mediciones si podemos descartar respuestas ridículas o utilizamos ciertos trucos.
* Se requiere de todos modos una cuarta medición por razones técnicas que luego veremos.
Paso 2: Midiendo las distancias a los satélites
Sabemos ahora que nuestra posición se calcula a partir de la medición de la distancia hasta por lo menos tres satélites. Pero, ¿cómo podemos medir la distancia hacia algo que está flotando en algún lugar en el espacio?. Lo hacemos midiendo el tiempo que tarda una señal emitida por el satélite en llegar hasta nuestro receptor de GPS.
La gran idea, Matemáticamente, es:
Toda la idea gira alrededor de aquellos problemas sobre la velocidad que resolvíamos en la secundaria, Recordemos que "Si un auto viaja a 60 kilómetros por hora durante dos horas, ¿qué distancia recorrió?
Velocidad (60 km/h) x Tiempo (2 horas) = Distancia (120 km)
En el caso del GPS estamos midiendo una señal de radio, que sabemos que viaja a la velocidad de la luz, alrededor de 300.000 km por segundo.
Nos queda el problema de medir el tiempo de viaje de la señal (Que, obviamente, viene muy rápido)
Sincronicemos nuestros relojes
El problema de la medición de ese tiempo es complicado. Los tiempos son extremadamente cortos. Si el satélite estuviera justo sobre nuestras cabezas, a unos 20.000 km de altura, el tiempo total de viaje de la señal hacia nosotros sería de algo mas de 0.06 segundos. Estamos necesitando relojes muy precisos. Ya veremos como lo resolvemos.
Pero, aún admitiendo que tenemos relojes con la suficiente precisión, ¿cómo medimos el tiempo de viaje de la señal?
Supongamos que nuestro GPS, por un lado, y el satélite, por otro, generan una señal auditiva en el mismo instante exacto. Supongamos también que nosotros, parados al lado de nuestro receptor de GPS, podamos oír ambas señales (Obviamente es imposible "oír" esas señales porque el sonido no se propaga en el vacío).
Oiríamos dos versiones de la señal. Una de ellas inmediatamente, la generada por nuestro receptor GPS y la otra con cierto atraso, la proveniente del satélite, porque tuvo que recorrer alrededor de 20.000 km para llegar hasta nosotros. Podemos decir que ambas señales no están sincronizadas.
Si quisiéramos saber cual es la magnitud de la demora de la señal proveniente del satélite podemos retardar la emisión de la señal de nuestro GPS hasta lograr la perfecta sincronización con la señal que viene del satélite.
El tiempo de retardo necesario para sincronizar ambas señales es igual al tiempo de viaje de la señal proveniente del satélite. Supongamos que sea de 0.06 segundos. Conociendo este tiempo, lo multiplicamos por la velocidad de la luz y ya obtenemos la distancia hasta el satélite.
Tiempo de retardo (0.06 seg) x Vel. de la luz (300.000 km/seg) = Dist. (18.000 km)
Así es, básicamente, como funciona el GPS.
La señal emitida por nuestro GPS y por el satélite es algo llamado "Código Pseudo Aleatorio" (Pseudo Random Code). La palabra "Aleatorio" significa algo generado por el azar.
¿Un Código Aleatorio?
Este Código Pseudo Aleatorio es una parte fundamental del GPS. Físicamente solo se trata de una secuencia o código digital muy complicado. O sea una señal que contiene una sucesión muy complicada de pulsos "on" y "off", como se pueden ver:
La señal es tan complicada que casi parece un ruido eléctrico generado por el azar. De allí su denominación de "Pseudo-Aleatorio".
Hay varias y muy buenas razones para tal complejidad. La complejidad del código ayuda a asegurarnos que el receptor de GPS no se sintonice accidentalmente con alguna otra señal. Siendo el modelo tan complejo es altamente improbable que una señal cualquiera pueda tener exactamente la misma secuencia.
Dado que cada uno de los satélites tiene su propio y único Código Pseudo Aleatorio, esta complejidad también garantiza que el receptor no se confunda accidentalmente de satélite. De esa manera, también es posible que todos los satélites trasmitan en la misma frecuencia sin interferirse mutuamente. Esto también complica a cualquiera que intente interferir el sistema desde el exterior al mismo. El Código Pseudo Aleatorio le da la posibilidad al Departamento de Defensa de EEUU de controlar el acceso al sistema GPS.
Pero hay otra razón para la complejidad del Código Pseudo Aleatorio, una razón que es crucial para conseguir un sistema GPS económico.
El código permite el uso de la "teoría de la información" para amplificar las señales de GPS. Por esa razón las débiles señales emitidas por los satélites pueden ser captadas por los receptores de GPS sin el uso de grandes antenas.
Cuando comenzamos a explicar el mecanismo de emisión de las señales por el GPS y el satélite, asumimos que ambos comenzaban la emisión de la señal exactamente al mismo tiempo. ¿Pero cómo podemos asegurarnos que todo esté perfectamente sincronizado?
Ya veremos...
En Resumen: Midiendo la distancia
* La distancia al satélite se determina midiendo el tiempo que tarda una señal de radio, emitida por el mismo, en alcanzar nuestro receptor de GPS.
* Para efectuar dicha medición asumimos que ambos, nuestro receptor GPS y el satélite, están generando el mismo Código Pseudo Aleatorio en exactamente el mismo momento.
* Comparando cuanto retardo existe entre la llegada del Código Pseudo Aleatorio proveniente del satélite y la generación del código de nuestro receptor de GPS, podemos determinar cuanto tiempo le llevó a dicha señal llegar hasta nosotros.
* Multiplicamos dicho tiempo de viaje por la velocidad de la luz y obtenemos la distancia al satélite.
Paso 3: Control perfecto del tiempo
Si la medición del tiempo de viaje de una señal de radio es clave para el GPS, los relojes que empleamos deben ser exactísimos, dado que si miden con un desvío de un milésimo de segundo, a la velocidad de la luz, ello se traduce en un error de 300 km!
Por el lado de los satélites, el timing es casi perfecto porque llevan a bordo relojes atómicos de increíble precisión.
¿Pero que pasa con nuestros receptores GPS, aquí en la tierra?
Recordemos que ambos, el satélite y el receptor GPS, deben ser capaces de sincronizar sus Códigos Pseudo Aleatorios para que el sistema funcione.
Si nuestros receptores GPS tuvieran que alojar relojes atómicos (Cuyo costo está por encima de los 50 a 100.000 U$S) la tecnología resultaría demasiado costosa y nadie podría acceder a ellos.
Por suerte los diseñadores del sistema GPS encontraron una brillante solución que nos permite resolver el problema con relojes mucho menos precisos en nuestros GPS. Esta solución es uno de los elementos clave del sistema GPS y, como beneficio adicional, significa que cada receptor de GPS es en esencia un reloj atómico por su precisión.
El secreto para obtener un timing tan perfecto es efectuar una medición satelital adicional.
Resulta que si tres mediciones perfectas pueden posicionar un punto en un espacio tridimensional, cuatro mediciones imperfectas pueden lograr lo mismo.
Esta idea es fundamental para el funcionamiento del sistema GPS, pero su explicación detallada excede los alcances de la presente exposición. De todos modos, aquí va un resumen somero:
Una medición adicional remedia el desfasaje del timing.
Si todo fuera perfecto (es decir que los relojes de nuestros receptores GPS lo fueran), entonces todos los rangos (distancias) a los satélites se intersectarían en un único punto (que indica nuestra posición). Pero con relojes imperfectos, una cuarta medición, efectuada como control cruzado, NO intersectará con los tres primeros.
De esa manera la computadora de nuestro GPS detectará la discrepancia y atribuirá la diferencia a una sincronización imperfecta con la hora universal.
Dado que cualquier discrepancia con la hora universal afectará a las cuatro mediciones, el receptor buscará un factor de corrección único que siendo aplicado a sus mediciones de tiempo hará que los rangos coincidan en un solo punto.
Dicha corrección permitirá al reloj del receptor ajustarse nuevamente a la hora universal y de esa manera tenemos un reloj atómico en la palma de nuestra mano!
Una vez que el receptor de GPS aplica dicha corrección al resto de sus mediciones, obtenemos un posicionamiento preciso.
Una consecuencia de este principio es que cualquier GPS decente debe ser capaz de sintonizar al menos cuatro satélites de manera simultánea. En la práctica, casi todos los GPS en venta actualmente, acceden a mas de 6, y hasta a 12, satélites simultáneamente.
Ahora bien, con el Código Pseudo Aleatorio como un pulso confiable para asegurar la medición correcta del tiempo de la señal y la medición adicional como elemento de sincronización con la hora universal, tenemos todo lo necesario para medir nuestra distancia a un satélite en el espacio.
Pero, para que la triangulación funcione necesitamos conocer no sólo la distancia sino que debemos conocer dónde están los satélites con toda exactitud.
Veremos cómo lo conseguimos.
En Resumen: Obtener un Timing Perfecto
* Un timing muy preciso es clave para medir la distancia a los satélites
* Los satélites son exactos porque llevan un reloj atómico a bordo.
* Los relojes de los receptores GPS no necesitan ser tan exactos porque la medición de un rango a un satélite adicional permite corregir los errores de medición.
Paso 4: Conocer dónde están los satélites en el espacio
A lo largo de este trabajo hemos estado asumiendo que conocemos dónde están los satélites en sus órbitas y de esa manera podemos utilizarlos como puntos de referencia.
¿Pero, cómo podemos saber donde están exactamente? Todos ellos están flotando a unos 20.000 km de altura en el espacio.
Un satélite a gran altura se mantiene estable
La altura de 20.000 km es en realidad un gran beneficio para este caso, porque algo que está a esa altura está bien despejado de la atmósfera. Eso significa que orbitará de manera regular y predecible mediante ecuaciones matemáticas sencillas.
La Fuerza Aérea de los EEUU colocó cada satélite de GPS en una órbita muy precisa, de acuerdo al Plan Maestro de GPS.
En tierra, todos los receptores de GPS tienen un almanaque programado en sus computadoras que les informan donde está cada satélite en el espacio, en cada momento.
El Control Constante agrega precisión
Las órbitas básicas son muy exactas pero con el fin de mantenerlas así, los satélites de GPS son monitoreados de manera constante por el Departamento de Defensa.
Ellos utilizan radares muy precisos para controlar constantemente la exacta altura, posición y velocidad de cada satélite.
Los errores que ellos controlan son los llamados errores de efemérides, o sea evolución orbital de los satélites. Estos errores se generan por influencias gravitacionales del sol y de la luna y por la presión de la radiación solar sobre los satélites.
Estos errores son generalmente muy sutiles pero si queremos una gran exactitud debemos tenerlos en cuenta.
Corrigiendo el mensaje
Una vez que el Departamento de Defensa ha medido la posición exacta de un satélite, vuelven a enviar dicha información al propio satélite. De esa manera el satélite incluye su nueva posición corregida en la información que transmite a través de sus señales a los GPS.
Esto significa que la señal que recibe un receptor de GPS no es solamente un Código Pseudo Aleatorio con fines de timing. También contiene un mensaje de navegación con información sobre la órbita exacta del satélite
Con un timing perfecto y la posición exacta del satélite podríamos pensar que estamos en condiciones de efectuar cálculos perfectos de posicionamiento. Sin embargo debemos resolver otros problemas.
En Resumen: Posicionamiento de los Satélites
* Para utilizar los satélites como puntos de referencia debemos conocer exactamente donde están en cada momento.
* Los satélites de GPS se ubican a tal altura que sus órbitas son muy predecibles.
* El Departamento de Defensa controla y mide variaciones menores en sus órbitas.
* La información sobre errores es enviada a los satélites para que estos a su vez retransmitan su posición corregida junto con sus señales de timing.
Paso 5: Corrigiendo Errores
Hasta ahora hemos estado tratando los cálculos del sistema GPS de manera muy abstracta, como si todo el proceso ocurriera en el vacío. Pero en el mundo real hay muchas cosas que le pueden suceder a una señal de GPS para transformarla en algo menos que matemáticamente perfecta.
Para aprovechar al máximo las ventajas del sistema un buen receptor de GPS debe tener en cuenta una amplia variedad de errores posibles. Veamos que es lo que debemos enfrentar.
Un Rudo Viaje a través de la atmósfera
En primer lugar, una de las presunciones básicas que hemos estado usando a lo largo de este trabajo no es exactamente cierta. Hemos estado afirmando que podemos calcular la distancia a un satélite multiplicando el tiempo de viaje de su señal por la velocidad de la luz. Pero la velocidad de la luz sólo es constante en el vacío.
Una señal de GPS pasa a través de partículas cargadas en su paso por la ionosfera y luego al pasar a través de vapor de agua en la troposfera pierde algo de velocidad, creando el mismo efecto que un error de precisión en los relojes.
Hay un par de maneras de minimizar este tipo de error. Por un lado, podríamos predecir cual sería el error tipo de un día promedio. A esto se lo llama modelación y nos puede ayudar pero, por supuesto, las condiciones atmosféricas raramente se ajustan exactamente el promedio previsto.
Otra manera de manejar los errores inducidos por la atmósfera es comparar la velocidad relativa de dos señales diferentes. Esta medición de doble frecuencia es muy sofisticada y solo es posible en receptores GPS muy avanzados.
Un Rudo Viaje sobre la tierra
Los problemas para la señal de GPS no terminan cuando llega a la tierra. La señal puede rebotar varias veces debido a obstrucciones locales antes de ser captada por nuestro receptor GPS.
Este error es similar al de las señales fantasma que podemos ver en la recepción de televisión. Los buenos receptores GPS utilizan sofisticados sistemas de rechazo para minimizar este problema.
Problemas en el satélite
Aún siendo los satélites muy sofisticados no tienen en cuenta minúsculos errores en el sistema.
Los relojes atómicos que utilizan son muy, pero muy, precisos, pero no son perfectos. Pueden ocurrir minúsculas discrepancias que se transforman en errores de medición del tiempo de viaje de las señales.
Y, aunque la posición de los satélites es controlada permanentemente, tampoco pueden ser controlados a cada segundo. De esa manera pequeñas variaciones de posición o de efemérides pueden ocurrir entre los tiempos de monitoreo.
Algunos ángulos son mejores que otros
La geometría básica por si misma puede magnificar estos errores mediante un principio denominado "Dilución Geométrica de la Precisión", o DGDP
Suena complicado pero el principio es simple.
En la realidad suele haber mas satélites disponibles que los que el receptor GPS necesita para fijar una posición, de manera que el receptor toma algunos e ignora al resto.
Si el receptor toma satélites que están muy juntos en el cielo, las circunferencias de intersección que definen la posición se cruzarán a ángulos con muy escasa diferencia entre sí. Esto incrementa el área gris o margen de error acerca de una posición.
Si el receptor toma satélites que están ampliamente separados, las circunferencias intersectan a ángulos prácticamente rectos y ello minimiza el margen de error.
Los buenos receptores son capaces de determinar cuales son los satélites que dan el menor error por Dilución Geométrica de la Precisión.
¡Errores Intencionales!
Aunque resulte difícil de creer, el mismo Gobierno que pudo gastar 12.000 Millones de dólares para desarrollar el sistema de navegación más exacto del mundo, está degradando intencionalmente su exactitud. Dicha política se denomina "Disponibilidad Selectiva" y pretende asegurar que ninguna fuerza hostil o grupo terrorista pueda utilizar el GPS para fabricar armas certeras.
Básicamente, el Departamento de Defensa introduce cierto "ruido" en los datos del reloj satelital, lo que a su vez se traduce en errores en los cálculos de posición. El Departamento de Defensa también puede enviar datos orbitales ligeramente erróneos a los satélites que estos reenvían a los receptores GPS como parte de la señal que emiten.
Estos errores en su conjunto son la mayor fuente unitaria de error del sistema GPS. Los receptores de uso militar utilizan una clave encriptada para eliminar la Disponibilidad Selectiva y son, por ello, mucho más exactos.
La Dsiponibilidad Selectiva fue interrumpida por un decreto del presidente Clinton, con efecto desde el 2 de mayo de 2000. El Departamento de Defensa de los Estados Unidos se reserva el derecho de reimplantarla cuando lo considere conveniente a los intereses de la Seguridad de los Estados Unidos y ademas dispone de la tecnología necesaria para implantarla en areas geograficas limitadas. Estas condiciones permitieron al Presidente Clinton supenderla.
La línea final
Afortunadamente todos esos errores no suman demasiado error total. Existe una forma de GPS, denominada GPS Diferencial, que reduce significativamente estos problemas.
En Resumen: Corrección de Errores
* La ionosfera y la troposfera causan demoras en la señal de GPS que se traducen en errores de posicionamiento.
* Algunos errores se pueden corregir mediante modelación y correcciones matemáticas.
* La configuración de los satélites en el cielo puede magnificar otros errores
* El GPS Diferencial puede eliminar casi todos los errores
Tarea 3 IPV6
El protocolo Internet versión 6 (IPv6) es una nueva versión de IP (Internet Protocol), definida en el RFC 2460
y diseñada para reemplazar a la versión 4 (IPv4) RFC 791
, actualmente en uso dominante.
Diseñado por Steve Deering de Xerox PARC y Craig Mudge, IPv6 está destinado a sustituir a IPv4, cuyo límite en el número de direcciones de red admisibles está empezando a restringir el crecimiento de Internet y su uso, especialmente en China, India, y otros países asiáticos densamente poblados. Pero el nuevo estándar mejorará el servicio globalmente; por ejemplo, proporcionará a futuras celdas telefónicas y dispositivos móviles sus direcciones propias y permanentes. Al día de hoy se calcula que las dos terceras partes de las direcciones que ofrece IPv4 ya están asignadas[cita requerida].
IPv4 posibilita 4.294.967.296 (232) direcciones de red diferentes, un número inadecuado para dar una dirección a cada persona del planeta, y mucho menos a cada vehículo, teléfono, PDA, etcétera. En cambio, IPv6 admite 340.282.366.920.938.463.463.374.607.431.768.211.456 (2128 o 340 sextillones de) direcciones —cerca de 3,4 × 1020 (340 trillones de) direcciones por cada pulgada cuadrada (6,7 × 1017 o 670 mil billones de direcciones/mm2) de la superficie de La Tierra.
Otra vía para la popularización del protocolo es la adopción de este por parte de instituciones. El gobierno de los Estados Unidos ha ordenado el despliegue de IPv6 por todas sus agencias federales para el año 2008[cita requerida].
y diseñada para reemplazar a la versión 4 (IPv4) RFC 791
, actualmente en uso dominante.
Diseñado por Steve Deering de Xerox PARC y Craig Mudge, IPv6 está destinado a sustituir a IPv4, cuyo límite en el número de direcciones de red admisibles está empezando a restringir el crecimiento de Internet y su uso, especialmente en China, India, y otros países asiáticos densamente poblados. Pero el nuevo estándar mejorará el servicio globalmente; por ejemplo, proporcionará a futuras celdas telefónicas y dispositivos móviles sus direcciones propias y permanentes. Al día de hoy se calcula que las dos terceras partes de las direcciones que ofrece IPv4 ya están asignadas[cita requerida].
IPv4 posibilita 4.294.967.296 (232) direcciones de red diferentes, un número inadecuado para dar una dirección a cada persona del planeta, y mucho menos a cada vehículo, teléfono, PDA, etcétera. En cambio, IPv6 admite 340.282.366.920.938.463.463.374.607.431.768.211.456 (2128 o 340 sextillones de) direcciones —cerca de 3,4 × 1020 (340 trillones de) direcciones por cada pulgada cuadrada (6,7 × 1017 o 670 mil billones de direcciones/mm2) de la superficie de La Tierra.
Otra vía para la popularización del protocolo es la adopción de este por parte de instituciones. El gobierno de los Estados Unidos ha ordenado el despliegue de IPv6 por todas sus agencias federales para el año 2008[cita requerida].
Tarea 3 IPV4
IPv4 es la versión 4 del Protocolo IP (Internet Protocol)versión anterior de IPv6. Ésta fue la primera versión del protocolo que se implementó extensamente, y forma la base de Internet.
IPv4 usa direcciones de 32 bits, limitándola a 232 = 4.294.967.296 direcciones únicas, muchas de las cuales están dedicadas a redes locales (LANs). Por el crecimiento enorme que ha tenido Internet (mucho más de lo que esperaba, cuando se diseñó IPv4), combinado con el hecho de que hay desperdicio de direcciones en muchos casos (ver abajo), ya hace varios años se vio que escaseaban las direcciones IPv4.
IPv4 usa direcciones de 32 bits, limitándola a 232 = 4.294.967.296 direcciones únicas, muchas de las cuales están dedicadas a redes locales (LANs). Por el crecimiento enorme que ha tenido Internet (mucho más de lo que esperaba, cuando se diseñó IPv4), combinado con el hecho de que hay desperdicio de direcciones en muchos casos (ver abajo), ya hace varios años se vio que escaseaban las direcciones IPv4.
Tarea 3 Dominio
Un dominio de Internet es una red de identificación asociada a un grupo de dispositivos o equipos conectados a la red internet.
El propósito principal de los nombres de dominio en internet y del sistema de nombres de dominio (DNS), es traducir las direcciones IP de cada modo activo en la red, a términos memorizables y fáciles de encontrar. Esta abstracción hace posible que cualquier servicio (de red) pueda moverse de un lugar geográfico a otro en la red internet, aun cuando el cambio implique que tendrá una dirección IP diferente.
Sin la ayuda del sistema de nombres de dominio, los usuarios de internet tendrían que acceder a cada servicio web utilizando la dirección IP del nodo (Ej. Sería necesario utilizar http://74.125.45.100 en vez de http://google.com
El propósito principal de los nombres de dominio en internet y del sistema de nombres de dominio (DNS), es traducir las direcciones IP de cada modo activo en la red, a términos memorizables y fáciles de encontrar. Esta abstracción hace posible que cualquier servicio (de red) pueda moverse de un lugar geográfico a otro en la red internet, aun cuando el cambio implique que tendrá una dirección IP diferente.
Sin la ayuda del sistema de nombres de dominio, los usuarios de internet tendrían que acceder a cada servicio web utilizando la dirección IP del nodo (Ej. Sería necesario utilizar http://74.125.45.100 en vez de http://google.com
Tarea 2 IEEE
IEEE corresponde a las siglas de Instituto de Ingenieros Electricistas y Electrónicos, una asociación técnico-profesional mundial dedicada a la estandarización, entre otras cosas. Es la mayor asociación internacional sin fines de lucro formada por profesionales de las nuevas tecnologías, como ingenieros electricistas, ingenieros en electrónica, científicos de la computación, ingenieros en informática, ingenieros en biomédica, ingenieros en telecomunicación e Ingenieros en Mecatrónica.
Su creación se remonta al año 1884, contando entre sus fundadores a personalidades de la talla de Thomas Alva Edison, Alexander Graham Bell y Franklin Leonard Pope. En 1963 adoptó el nombre de IEEE al fusionarse asociaciones como el AIEE (American Institute of Electrical Engineers) y el IRE (Institute of Radio Engineers).
A través de sus miembros, más de 380.000 voluntarios en 175 países, el IEEE es una autoridad líder y de máximo prestigio en las áreas técnicas derivadas de la eléctrica original: desde ingeniería computacional, tecnologías biomédica y aeroespacial, hasta las áreas de energía eléctrica, control, telecomunicaciones y electrónica de consumo, entre otras.
Según el mismo IEEE, su trabajo es promover la creatividad, el desarrollo y la integración, compartir y aplicar los avances en las tecnologías de la información, electrónica y ciencias en general para beneficio de la humanidad y de los mismos profesionales. Algunos de sus estándares son:
• VHDL
• POSIX
• IEEE 1394
• IEEE 488
• IEEE 802
• IEEE 802.11
• IEEE 754
• IEEE 830
Mediante sus actividades de publicación técnica, conferencias y estándares basados en consenso, el IEEE produce más del 30% de la literatura publicada en el mundo sobre ingeniería eléctrica, en computación, telecomunicaciones y tecnología de control, organiza más de 350 grandes conferencias al año en todo el mundo, y posee cerca de 900 estándares activos, con otros 700 más bajo desarrollo.
NIC (internet)
Network Information Center o Centro de Información sobre la Red, más conocido por su acrónimo NIC, es un grupo de personas, una entidad o una institución encargada de asignar dominios de internet bajo su dominio de red sean genéricos o de países, a personas naturales o empresas que mediante un DNS pueden montar sitios de Internet mediante un proveedor de hospedaje.
Básicamente existe un NIC por cada país en el mundo y ese NIC es el responsable por todos los dominios con terminación correspondiente a dicho país, por ejemplo: NIC México es el encargado de todos los dominios con terminación .mx, la cual es la terminación correspondiente a dominios de México.
AM Y FM
La sigla AM, se refiere a lo que conocemos como Amplitud modulada o modulación de amplitud. Este es un tipo de modulación lineal, que consiste en hacer variar la amplitud de la onda portadora de forma, el fin es que esta cambie de acuerdo con las variaciones que se encuentran dentro del nivel de la señal moduladora, que es la información que se va a transmitir.
Por otra parte, otras de las formas de AM, son las que se conocen como la modulación por Banda lateral única o la Doble Banda Lateral que son consideradas más eficientes en ancho de banda o potencia.
En cuanto a la sigla FM, es importante destacar que se refiere a Frecuencia Modulada, ya que es una modulación angular que transmite información a través de una onda portadora variando su frecuencia. La frecuencia modulada es usada comúnmente en las radiofrecuencias de muy alta frecuencia.
Su creación se remonta al año 1884, contando entre sus fundadores a personalidades de la talla de Thomas Alva Edison, Alexander Graham Bell y Franklin Leonard Pope. En 1963 adoptó el nombre de IEEE al fusionarse asociaciones como el AIEE (American Institute of Electrical Engineers) y el IRE (Institute of Radio Engineers).
A través de sus miembros, más de 380.000 voluntarios en 175 países, el IEEE es una autoridad líder y de máximo prestigio en las áreas técnicas derivadas de la eléctrica original: desde ingeniería computacional, tecnologías biomédica y aeroespacial, hasta las áreas de energía eléctrica, control, telecomunicaciones y electrónica de consumo, entre otras.
Según el mismo IEEE, su trabajo es promover la creatividad, el desarrollo y la integración, compartir y aplicar los avances en las tecnologías de la información, electrónica y ciencias en general para beneficio de la humanidad y de los mismos profesionales. Algunos de sus estándares son:
• VHDL
• POSIX
• IEEE 1394
• IEEE 488
• IEEE 802
• IEEE 802.11
• IEEE 754
• IEEE 830
Mediante sus actividades de publicación técnica, conferencias y estándares basados en consenso, el IEEE produce más del 30% de la literatura publicada en el mundo sobre ingeniería eléctrica, en computación, telecomunicaciones y tecnología de control, organiza más de 350 grandes conferencias al año en todo el mundo, y posee cerca de 900 estándares activos, con otros 700 más bajo desarrollo.
NIC (internet)
Network Information Center o Centro de Información sobre la Red, más conocido por su acrónimo NIC, es un grupo de personas, una entidad o una institución encargada de asignar dominios de internet bajo su dominio de red sean genéricos o de países, a personas naturales o empresas que mediante un DNS pueden montar sitios de Internet mediante un proveedor de hospedaje.
Básicamente existe un NIC por cada país en el mundo y ese NIC es el responsable por todos los dominios con terminación correspondiente a dicho país, por ejemplo: NIC México es el encargado de todos los dominios con terminación .mx, la cual es la terminación correspondiente a dominios de México.
AM Y FM
La sigla AM, se refiere a lo que conocemos como Amplitud modulada o modulación de amplitud. Este es un tipo de modulación lineal, que consiste en hacer variar la amplitud de la onda portadora de forma, el fin es que esta cambie de acuerdo con las variaciones que se encuentran dentro del nivel de la señal moduladora, que es la información que se va a transmitir.
Por otra parte, otras de las formas de AM, son las que se conocen como la modulación por Banda lateral única o la Doble Banda Lateral que son consideradas más eficientes en ancho de banda o potencia.
En cuanto a la sigla FM, es importante destacar que se refiere a Frecuencia Modulada, ya que es una modulación angular que transmite información a través de una onda portadora variando su frecuencia. La frecuencia modulada es usada comúnmente en las radiofrecuencias de muy alta frecuencia.
Suscribirse a:
Comentarios (Atom)
