Archive for the ‘iba2010ing’ Category

Trabajos Redes de Acceso Banda Ancha Parte II

junio 14, 2010

Trabajo 17: 3GPP-Evolved Packet System (EPS): Long Term Evolution (LTE)+ System Architecture Evolution (SAE).

3GPP (3rd GenerationPartnershipProject) Su objetivo principal es globalizar los avances de la tecnología móvil en cuanto a aplicaciones, desarrollando los sistemas GSM (actualmente UMTS).

LTE y SAE:

Se desarrollan dos sistemas independientes pero complementarios. LTE trabaja en el interfaz de acceso radio y SAE trabaja para el desarrollo de la arquitectura de nucleo de la red de acceso radio.

El LTE 3GPP Long TermEvolution) es un proyecto que se pone en marcha en 2004 y busca solucionar las limitaciones que existían en 3G:

  • Soporte insuficiente del dominio de paquetes (PacketSwitched)
  • Baja eficiencia en las rutas de transmisión de datos
  • Incapacidad de soportar múltiples sistemas de radio acceso

Se obtuvieron las siguientes mejoras:

  • Interconexión redes de acceso
  • Conmutación de paquetes (IP)
  • Aumento de velocidades en DL y UL
  • Uso de nuevas frecuencias de espectro

A diferencia de WiMax LTE no implica tan gran inversión económica en cuanto a infraestructuras es por ello que grandes fabricantes como Nokia han decidido abandonar sus desarrollos WiMAX por LTE.

Me parece que todo los que sea avanzamos hacia la convergencia de las tecnologías terrestres de Internet y las móviles es interesante porque hoy en día el mundo es móvil, y los usuarios cada vez requieren mayores prestaciones y servicios dentro de sus terminales.

Trabajo 22: El estándar IEEE-802.22 Wireless Regional Area Network (WRAN)
He de reconocer que mi conocimiento de este estandar era nulo antes de oir esta presentación y que me ha ayudado a quedarme con una primera impresión.

Se caracteriza por estar basado en las radios cognitivas y la operación sin licencia en las bandas de televisión.

  • El sistema WRAN da cabida a los diferentes anchos de banda de canales de televisión internacional, de 6, 7 y 8 MHz.
  • La efeciencia espectral es de un promedio de 3 bits (seg / Hz) esto correspondería a un total de la capa PHY con velocidad de datos de 18Mbps en el canal de televisión 6MHz.
  • Utiliza una modulación OFDMA.

WRAN opera en las bandas de TV haciendo uso de técnicas tales como el espectro de detección, la detección y prevención correspondiente, y logra que la gestión del espectro tenga una convivencia efectiva.

La ventaja es económica, porque las estaciones base en las zonas rurales tienen bajo coste.

La capacidad limitada del espectro <1 GHz y servicios de alta definición serán factores clave.

Trabajo 11: Nuevas Arquitecturas de Internet.

junio 14, 2010

En este trabajo nos hablo de las Nuevas Arquitecturas de Internet. Para el desarrollo de la misma, existen iniciativas privadas y públicas. A nivel privado, muchas empresas, sobre todo ICTs (Information and Comunication Technologies), investigan sobre proyectos privados. A nivel público  Europa está delante de las otras partes del mundo (más de 20% del presupuesto ICT de la Comisión Europea es dedicado al Futuro Internet), se desarrollando a través del FP7 (Framework Programme).

Posteriormente nos dieron claves a la hora de pensar en el Futuro Internet. La clave socio-económica tiene mucha importancia porque “el sistema socio-económico tiene una influencia sobre el Internet, pero también que el Internet tiene una influencia sobre el sistema socio-económico“.

El diseño de nueva arquitectura debe permitir cambios y evoluciones a largo plazo, que se le denomina diseño darwiniano. De forma que el estilo de investigación es distinto, dado que el nuevo Internet no será el resultado de acuerdos entre comisiones de industrias y gobiernos. Si no que será el resultado de un proceso de innovaciones de comunidades con una selección (un filtro) del mercado (los que sobreviven los rigores del mercado). Por ello necesita permitir innovaciones libres y una ingeniería solida.

Trabajo 14: Identidad en la Red y portabilidad de datos personales

junio 14, 2010

En este trabajo nos ofrecieron una visón del estado del arte de los esquemas blando en la Red.

Nos explicaron qué es la portabilidad de datos personales entre servicios competidores en el escenario de los servicios de gestión online de redes sociales. Al final nos mostraron la aplicación de la portabilidad al entorno corporativo para la colaboración en el ámbito de equipos virtuales de trabajo.

Nos hablaron de OPEN ID sistema de autentificación digital descentralizado, con el que un usuario puede identificarse en una página web a través de una URL y puede ser verificado por cualquier servidor que soporte el protocolo.

OAuth pretende ser un medio unificado de acceso a la información que cada usuario cede a un servicio.

Mientras en OpenID se trata de usar una única identidad para registrarse en muchos sitios, OAuth se enfoca en la autorización, permitiendo acceder a información privada sin compartir por completo la identidad.

Al final nos hablaron de los Grafos Sociales (Social Graph), cuya principal ventaja es de cara a los usuarios es que conocen con quien están conectados . De cara a los desarroladores de aplicaciones sociales, conociendo la red de “amigos” pueden ofrecer mejores servicios.

Analizaron las principales repercusiones de la Identidad en la Red y la portabilidad de datos personales en algunos entornos empresariales:

  • Entornos jurídico-legales: aplicaciones de administración de estudios jurídicos online (Software as a Service, SaaS), que permita listados, reportes e informes, con algún formato de intercambio de archivos (XML), para compartir la información con otras aplicaciones (OAuth), con otros estudios jurídicos, para migrar datos a agendas electrónicas (Data Portability) o enviar por correo electrónico, etc.
  • Brokers: Una identidad, varios servicios/aplicaciones, los datos entre aplicaciones se comparten (según se haya definido) obteniéndose un resultado final.
  • Salud: Al tener una identidad federada, por ejemplo, podemos hacer que el médico lleve una agenda de turnos y permita al paciente seleccionar y reservar la cita más adecuada. En este ámbito existe el servicio de GoogleHealth que permite al usuario contar con su historia médica online importando su historia médica (de centros médicos que soporten el servicio) y buscar profesionales o centros de salud.

Trabajo 10: Estudio del despliegue del protocolo IPv6

junio 14, 2010

En este trabajo nos explicaron que IPv4 es la versión actual del protocolo IP e IPv6 pretende reemplazarlo. El gran problema deIPv4 es que el límite de direcciones es insuficiente. Con el nuevo protocolo pretende: Eliminar duplicidad de funciones, unificar todas las mejoras aplicadas en forma de parches encima del protocolo, mejorar la seguridad.

También nos explicaron algunas alternativas temporales al IPv6 dado que desde los 90  se conoce el problema de la escasez de direcciones. Principalmente estas alternativas han sido Disminución de las clases y creación del CIDR (Classless Inter-Domain Routing), permitía crear las subredes a nivel de bit, gracias a las mascaras, por lo que se evitaba el desperdicio de muchas direcciones.  y la creación del NAT (Network Adress  Translation) que permite conectar muchas direcciones de una red privada a una sola dirección pública.

Por otro lado nos explicaron tres métodos de transición de IPv4 a IPv6:

  • Pila Dual: Consiste en la coexistencia de los dos protocolos en el dispositivo. Es sencillo y caro.
  • Métodos de traducción: Dos nodos que soportan IPv4 uno y IPv6 el otro, necesitan un intermediario que traduzca la dirección y las cabeceras. Esto puede provocar cuellos de botella.
  • Métodos de tunneling. Para superar tramos antiguos de IPv4, se encapsula el IPv6 con IPv4. Se necesita de un router que soporte el sistema de pila dual en los extremos del túnel, a diferencia del sistema simple de pila dual que necesita que todos los nodos soporten los dos protocolos, el problema reside en la pérdida de eficiencia al doblar el empaquetado y las cabeceras. De todos modos, parece ser el sistema más encaminado a la expansión gracias a los métodos automáticos que permitirán ir aumentando paulatinamente el tamaño de la red IPv6 en detrimento de la IPv4.

Por último nos comentaron la evolución del despliegue de IPv6 a día de hoy,  los países asiáticos (China, Japón, Corea…) son los más avanzados en cuanto a despliegue (sienten la escasez de direcciones). Por otro la comodidad, de los países que van más holgados EEUU, está ralentizando el avance.

Trabajo 7: Estudio de mercado sobre los proveedores de Internet en España

junio 13, 2010

Por un lado en este trabajo nos presentaron un estudio en el que analizaron las distintas tecnologías de acceso a internet de banda Ancha disponibles en España. (ADSL, ADSL2+,VDSL, Cable, Móvil, WiMax Y FTTH) Comentaron sus capacidades y algunas de las características más destacadas.

Después nos mostraron las ofertas de los principales operadores en España que ofrecen estas tecnologías.

Finalmente y como conclusión del trabajo elaboraron una recomendación de contratación, atendiendo distintos perfiles del usuario que contrata:

  • Navegar a bajo coste
  • Necesidad de movilidad
  • Velocidad de descarga alta
  • Velocidad de subida alta
  • Baja latencia
  • Alta disponibilidad, alta velocidad de reacción ante fallo

Nos comentaron que la conexión ONO 50/3  es buena pero su cobertura es limitada principalmente a las capitales, debido a la necesidad de instalar el cable, por lo que no será una conexión al alcance de la mayoría de la gente.

Otra compañía que ofrece una conexión que se amolda a todos estos perfiles es Jazztel, que tiene la opción de configurar distintos perfiles de acuerdo con las necesidades del usuario.

En el caso de la velocidad de reacción ante fallo, la compañía elegida es Telefónica, aunque su coste es mayor.

Me pareció muy bien estructurado y completo. Ayudando a conocer como está el mercado en España

Evolución de Internet

junio 12, 2010

En los inicios el acceso a Internet era caro y limitado. Internet es un servicio de comunicación y por ello es inútil cuando nadie lo utiliza y se convierte en algo necesario cuando todo el mundo lo tiene. Los investigadores de Internet imaginaron que en el futuro la tecnología LAN sería barata y disponible para muchos usuarios. Ellos asumieron que cada compañía usaría varias LAN para interconectar todos sus ordenares. Diseñaron el protocolo Ethernet con cabecera única en todo el  mundo pensando en el futuro, sus predicciones fueron correctas. Otra estrategia de diseño de la que se dieron cuenta es que sea un sistema abierto, lo que facilitó su especificación única, permitiendo la compatibilidad de la redes.

En principio, la red contaba con 4 ordenadores distribuidos entre distintas universidades del país. Dos años después, ya contaba con unos 40 ordenadores conectados. Entonces dos investigadores crearon el Protocolo TCP/IP, que se convirtió en el estándar de comunicaciones dentro de las redes informáticas (actualmente seguimos utilizando dicho protocolo)

ARPANET siguió creciendo y abriéndose al mundo, y cualquier persona con fines académicos o de investigación podía tener acceso a la red. Las funciones militares se desligaron de ARPANET y fueron a parar a MILNET, una nueva red creada por los Estados Unidos. La NSF (National Science Fundation) crea su propia red informática llamada NSFNET, que más tarde absorbe a ARPANET, creando así una gran red con propósitos científicos y académicos. La promoción y el desarrollo de las redes fue abismal, y se crean nuevas redes de libre acceso que más tarde se unen a NSFNET, formando el embrión de lo que hoy conocemos como INTERNET.

Autopistas de la información:

Se popularizaron con la campaña presidencial de USA’92, esta acción fue impulsada por el gobierno americano y buscaba dotar al país de un red de comunicaciones de altas prestaciones. Buscaban la analogía con la acción de impulso de la red de autopistas interestatales.

Las características técnicas de las autopistas de la información son:

Capacidad troncal:

  • Bits por segundo
  • Tiempos de transferencia (bits información /segundo)
  • Infraestructura de redes de alta capacidad
  • fibra óptica:

Vt (Mbps, Gbps)

Poca atenuación

Inmunidad al ruido i interferencias electromagnéticas.

  • Interconexión de redes

Capacidades de acceso

  • Acceso desde  casa del usuario a la autopista
  • Calidad de acceso

• bits/segundo

• tiempos de transferencia de la información

Navegabilidad

  • Herramientas para localizar y acceder a la información
  • Fiabilidad, seguridad, integridad, confidencialidad y autentificación de los usuarios

Un documento de la ONU titulado “Internet como Herramienta Básica de la Actividad Diplomática” hace una introducción histórica interesante.

La sociedad de la información ha sufrido un cambio importante en los últimos años y es que ahora un carácter social, más que tecnológico. Es el cambio de actitud de los propios usuarios, los cuales no se han conformado con ser meros espectadores de lo que sucedía a su alrededor, y han jugado a ser los protagonistas, en lo que se conoce como el fenómeno Web 2.0. Blogs, redes sociales, herramientas para compartir fotos… son algunas de sus manifestaciones. De esta forma, la Red se ha configurado como un sistema centrado en los usuarios y no en las empresas o administraciones.

En el siguiente gráfico realizado por Teleography Research se muestra el flujo del trafico a nivel mundial.

Infraestructuras comunes de Telecomunicaciones

junio 12, 2010

Las Infraestructuras comunes de Telecomunicaciones (ICT) son las instalaciones necesarias para captar, adaptar y distribuir a las viviendas y locales, señales de radio y televisión terrestre y por satélite, así como servicio telefónico básico y de telecomunicación de banda ancha.

La ICT es un DERECHO del ciudadano ya que el Real Decreto ley 1/1998 establece que no se concederá autorización para la construcción de nuevos edificios o rehabilitación integral de los existentes si al Proyecto de Edificación no se acompaña el Proyecto Técnico de ICT. Dicho Proyecto Técnico debe estar firmado por ingeniero de telecomunicación o ingeniero técnico de telecomunicación de la especialidad correspondiente.

Los edificios de viviendas y oficinas ya construidos con anterioridad al Real Decreto ley 1/1998, deben disponer de estas infraestructuras siempre que el número de antenas individuales o colectivas instaladas sea superior a un tercio de las viviendas y locales del edificio o cuando lo decida una Comunidad de Propietarios de acuerdo a lo establecido en la ley de Propiedad Horizontal. El coste de la infraestructura ha de ser asumido por los dueños de las antenas o por la Comunidad de Propietarios.

Hoy en día el ciudadano se incorpora a la Sociedad de la Información, la cual es cada vez más compleja. Por tanto se hace necesario garantizar el derecho fundamental: acceso a la información y secreto comunicaciones . El gran avance que supone el proyecto ICT en un edifico es, que garantiza la calidad de la instalación lo que facilite la incorporación de nuevos servicios apoyados en nuevas tecnologías (TDT, LMDS).

En concreto la ICT instrumenta medios para acceso a lo  servicios , evita instalaciones individuales y agiliza la relación usuario-operador. La Red interior ha de ser capaz de distribuir: RTV terrenal analógica, RTV terrenal digital y RTV de satélite (hasta dos plataformas). En cuanto al servicio telefónico: se ha de instalar 2 líneas como mínimo por vivienda, la estructura ha de  permitir el  cambio  de operador sin instalación o trabajos adicionales, la calidad de líneas ha de ser adecuada para Internet.

En cuanto a la Banda Ancha, la ICT establece la existencia de una infraestructura que permite el acceso de hasta dos operadores de telecomunicaciones por cable hasta  cada  vivienda sin obras adicionales.

A través de las redes que la ICT establece se puede dar soporte a otros servicios como la domótica  y el Hogar Digital.

Telefónica ha publicado un libro blanco sobre las ICT donde se puede encontrar información sobre los distintos esquemas de instalación, recomendaciones y datos sobre la implantación, ver en este enlace.

Para más información  sobre las recomendaciones según el tipo de instalación ver la siguiente info de telefónica.

Teletrabajo

junio 11, 2010

La clase sobre teletrabajo la impartió el profesor Jordi Domingo y nos explicó que en Europa, por teletrabajo se entiende como la substitución, total o parcial de los desplazamientos para ir a trabajar utilizando las TIC: desplazar el trabajo hacia los trabajadores y/o trabajar uno o días por semana a casa o a un centro de teletrabajo.

Uno de los factores clave para la aparición del teletrabajo es la evolución de los tipos de trabajo a lo largo del último siglo, pasando de una economía mayoritariamente agraria, pasando por una economía industrial para llegar a una economía de información que es donde nos encontramos.

Los principales problemas que pretender mitigar el teletrabajo son entre otros:

Tiempo de los desplazamientos hasta el lugar de trabajo, en USA puede llegar a las 2 horas

Reuniones mal planificadas o improvisadas por el hecho de que los trabajadores estén en el mismo lugar de trabajo.

Baja productividad debido a muchas interrupciones por visitas o teléfono.

Días enteros libres debido a asuntos propios o médico.

Las formas de teletrabajo según el lugar desde que se realice son:

Desde la propia casa. Este tipo no es aplicable a todo el mundo, se necesita que la persona que lo realice tenga un carácter muy determinado, constancia, disciplinada. También se ha de considerar quien paga el coste del acondicionamiento de la casa para realizar el trabajo, debido a que es necesario disponer de un área propia dentro de la casa.

Centro de trabajo satélite: consiste en que la empresa dispone de unas oficinas propias cerca de casa de los trabajadores, reduciendo los desplazamientos y no es necesario reproducir toda la estructura organizativa.  Los principales problemas son de organización y gestión de los múltiples satélites

Centro de trabajo local: consiste en un edificio de oficinas compartido por otras empresas. Está ubicado también cerca de casa del trabajador. Permite compartir recursos (comunicaciones, vigilancia, mensajería). Tiene el principal problema de la falta de confidencialidad y la pérdida de identificación con la propia empresa.

El teletrabajo tiene tres etapas básicas para su puesta en práctica: Análisis de las tareas de un potencial teletrabajo, descomponer cada trabajo en una colección de tareas y analizar la naturaleza de las mismas.

El teletrabajo  también genera algún problema. Apple ha analizado que un 27% de los colegas de los teletrabajadores se quejan de que tienen más trabajo (atender llamadas,..) y que los directivos se olvidan de los teletrabajadores a la hora de repartir el trabajo

Para solucionar esto se podría impartir formación complementaria para poder rotar las tareas y que todos sean trabajadores. Esto conlleva un estudio de las tareas que requieren comunicación cara a cara y aquellas que dependen del lugar de trabajo para poder agruparlas.

Por otro lado pienso que el lugar de trabajo es algo más que un habitáculo en el que se desarrollan unas tareas.  El ambiente de trabajo de una oficina que se crea a base de la relación interpersonal entre los trabajadores y clientes, o entre los trabajadores mismos, me parece que no se puede conseguir mediante el teletrabajo donde la gente se va rotando y al final casi ni se conocen, no se comparten experiencias, inquietudes y alegrías y no se fraguan verdaderas amistad que en cierta medida forman parte del patrimonio de cualquier empresa.

Organización de la red, nuevas tendencias en la arquitectura de la red

junio 11, 2010

La red está organizada bajo unos minimos ordenados por la IANA

La IANA actúa principalmente en tres campos Nombres de dominos (DNS), Direciones IP y defición de Protoclos Estandar. Está organizada por delegeaciones terriorial, en ámbitos Regional(Contientes), Nacional y Local.

Una actividad que coordina la IANAde especial relevancia es el desarrollo del protoco IPv6.

Los sistemas de la red son autónomos y se relacionan según tres categorías: Tránsito, Intercambio o Usuario. El principal beneficio del tránsito es el aumento de la eficiencia del tráfico

La red está organizada jerárquicamente y existen tres categorías Tier 1, Tier 2 y Tier 3

Uno de los principales retos de la arquitectura de red es el de dar soporte a los terminales móviles.  Estos dispositivos demandan un gran flujo de datos (video) en tiempo real. Esto requiere calidad de servicio. Por otro lado es necesario una gran escalabilidad, dado la proliferación de redes de sensores y el término acuñado como “Internet of the Things”.

Esto conlleva también un replanteamiento del modelo económico para hacerlo sostenible, en esto términos de habla de neutralidad de la red, muy vivo en USA. Este diseño resulta muy eficiente para gestionar grandes volúmenes de tráfico según el criterio best-effort, pero no garantiza ni la seguridad ni la calidad de servicio que requieren algunas de las aplicaciones que se cree son las que justifican las inversiones en redes de nueva generación, como, por ejemplo, la transmisión de voz y video en tiempo real.

Otros requisitos de la arquitectura de la red seguridad y predecible.

Entre las nuevas tendencias de la arquitectura de red está la de dotar de mayor inteligencia a la misma. El direccionamiento IP, se podría realizar de forma más intuitiva. Con la utilización del protoclo MPLS, se podría a la conmutación de circuitos dinámica de forma óptica.

Gestión de la Movilidad

junio 11, 2010

Gestión de la Movilidad:

El seguimiento de los móviles es uno de los aspectos más importantes a considerar cuando se trata el tema de la Gestión de la Movilidad. Debemos distinguir dos escenarios: Terminal Móvil Activo, se ha de seguir al terminal móvil con objeto de garantizar la continuidad de las llamadas en curso , y terminal móvil inactivo, se ha de seguirles para entregarle las llamadas entrantes. Este seguimiento produce un trafico de señalización tanto en la red fija, de la cual se dispone de gran ancho de banda, como en el interfaz radio en el cual el ancho de banda disponible es escaso.

Este seguimiento se puede distinguir en cuatro aspectos:

Gestión de localización: que se gestiona mediante el envío y recepción de mensajes de Location Update y Paging en la interfaz radio y Database Update y interrogation en la red fija

Actualización de posición:  Location Update message en la interfaz radio y Registration message en la red fija

Entrega de llamadas: Interrogation en la red fija y Paging message en el interfaz radio

Gestión de los traspasos:  Mediante el proceso de Handover, que puede ser desde el punto de vista del interfaz radio Hard-Handover o Soft-Handover según el grado de conectitividad. Desde el punto de vista de la red puede ser Intracell o Intercell.

Generalmente se pueden distinguir dos niveles de movilidad la Macromovilidad y la Micromovilidad.

Macromovilidad: se produce cuando el movimiento del del usuario móvil es entre dos dominios de red completamente distintos. En este caso Mobile IP es el protocolo empleado. Se busca la transparencia a nivel IP. Las principales limitaciones de Mobile IP son que el proceso de registro demasiado lento, requiere una gran cantidad de direcciones IP y  tiene dificultades para mantener la calidad de servicio.

Micromovilidad: se produce cuando el movimiento del usuario móvil es entre dos subredes distintas pero dentro del mismo dominio. El protocolo utilizado es Cellular IP, HAWAII.

Cellular IP es un protocolo de micro-movilidad que se centra en la movilidad de los nodos en pequeñas zonas que se encuentran situadas estratégicamente dentro de una determinada jerarquía de nodos, a la vez que interactúa con Mobile IP para soportar el movimiento de nodos entre grandes áreas de la red. Cellular IP es una extensión al protocolo de Mobile IP, y no una alternativa a este.