viernes, 30 de marzo de 2012

Modelo OSI


Modelo OSI

El modelo de interconexión de sistemas abiertos, también llamado OSI (en inglés open system interconnection) es el modelo de red descriptivo creado por la Organización Internacional para la Estandarización en el año 1984. Es decir, es un marco de referencia para la definición de arquitecturas de interconexión de sistemas de comunicaciones.

Fue desarrollado en 1984 por la Organización Internacional de Estándares (ISO), una federación global de organizaciones que representa aproximadamente a 130 países. El núcleo de este estándar es el modelo de referencia OSI, una normativa formada por siete capas que define las diferentes fases por las que deben pasar los datos para viajar de un dispositivo a otro sobre una red de comunicaciones.
Siguiendo el esquema de este modelo se crearon numerosos protocolos. El advenimiento de protocolos más flexibles donde las capas no están tan desmarcadas y la correspondencia con los niveles no era tan clara puso a este esquema en un segundo plano. Sin embargo es muy usado en la enseñanza como una manera de mostrar cómo puede estructurarse una "pila" de protocolos de comunicaciones.
El modelo especifica el protocolo que debe ser usado en cada capa, y suele hablarse de modelo de referencia ya que es usado como una gran herramienta para la enseñanza de comunicación de redes.
Se trata de una normativa estandarizada útil debido a la existencia de muchas tecnologías, fabricantes y compañías dentro del mundo de las comunicaciones, y al estar en continua expansión, se tuvo que crear un método para que todos pudieran entenderse de algún modo, incluso cuando las tecnologías no coincidieran. De este modo, no importa la localización geográfica o el lenguaje utilizado. Todo el mundo debe atenerse a unas normas mínimas para poder comunicarse entre sí. Esto es sobre todo importante cuando hablamos de la red de redes, es decir, Internet.

Capa física

Es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico como a la forma en la que se transmite la información.
Sus principales funciones se pueden resumir como:
Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
Transmitir el flujo de bits a través del medio.
Manejar las señales eléctricas del medio de transmisión, polos en un enchufe, etc.
Garantizar la conexión (aunque no la fiabilidad de dicha conexión)

Capa de enlace de datos

Esta capa se ocupa del direccionamiento físico, de la topología de la red, del acceso al medio, de la detección de errores, de la distribución ordenada de tramas y del control del flujo.
Por lo cual es uno de los aspectos más importantes a revisar en el momento de conectar dos ordenadores, ya que está entre la capa 1 y 3 como parte esencial para la creación de sus protocolos básicos (MAC, IP), para regular la forma de la conexión entre computadoras asi determinando el paso de tramas (trama = unidad de medida de la información en esta capa, que no es más que la segmentación de los datos trasladándolos por medio de paquetes), verificando su integridad, y corrigiendo errores, por lo cual es importante mantener una excelente adecuación al medio físico (los más usados son el cable UTP, par trenzado o de 8 hilos), con el medio de red que redirecciona las conexiones mediante un router. Dadas estas situaciones cabe recalcar que el dispositivo que usa la capa de enlace es el Switch que se encarga de recibir los datos del router y enviar cada uno de estos a sus respectivos destinatarios (servidor -> computador cliente o algún otro dispositivo que reciba información como celulares, etc.), dada esta situación se determina como el medio que se encarga de la corrección de errores, manejo de tramas, protocolización de datos (se llaman protocolos a las reglas que debe seguir cualquier capa del modelol OSI).

Capa de red

Se encarga de identificar el enrutamiento existente entre una o más redes. Las unidades de información se denominan paquetes, y se pueden clasificar en protocolos enrutables y protocolos de enrutamiento.
Enrutables: viajan con los paquetes (IP, IPX, APPLETALK)
Enrutamiento: permiten seleccionar las rutas (RIP,IGRP,EIGRP,OSPF,BGP)
El objetivo de la capa de red es hacer que los datos lleguen desde el origen al destino, aún cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominanencaminadores, aunque es más frecuente encontrarlo con el nombre en inglés routers. Los routers trabajan en esta capa, aunque pueden actuar como switch de nivel 2 en determinados casos, dependiendo de la función que se le asigne. Los firewalls actúan sobre esta capa principalmente, para descartar direcciones de máquinas.
En este nivel se realiza el direccionamiento lógico y la determinación de la ruta de los datos hasta su receptor final.

Capa de transporte


Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la de destino, independizándolo del tipo de red física que se esté utilizando. LaPDU de la capa 4 se llama Segmento o Datagrama, dependiendo de si corresponde a TCP o UDP. Sus protocolos son TCP y UDP; el primero orientado a conexión y el otro sin conexión. Trabajan, por lo tanto, con puertos lógicos y junto con la capa red dan forma a los conocidos como Sockets IP:Puerto (191.16.200.54:80).

Capa de sesión

Esta capa es la que se encarga de mantener y controlar el enlace establecido entre dos computadores que están transmitiendo datos de cualquier índole. Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcial o totalmente prescindibles.

Capa de presentación

El objetivo es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres los datos lleguen de manera reconocible.
Esta capa es la primera en trabajar más el contenido de la comunicación que el cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.
Esta capa también permite cifrar los datos y comprimirlos. Por lo tanto, podría decirse que esta capa actúa como un traductor.

Capa de aplicación


Ofrece a las aplicaciones la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (Post Office Protocol y SMTP), gestores de bases de datos y servidor de ficheros (FTP), por UDP pueden viajar (DNS y Routing Information Protocol). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.
Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente.

jueves, 29 de marzo de 2012

Aterrador: Mono controla mano robótica por medio de implantes cerebrales



De no ser por la cortina de censura que cae sobre el gigante asiático, quizás la universidad china de Zhejiang podría ser considerada como el MIT de Asia. Hace pocos días informaron que lograron implantar sensores en el córtex motriz cerebral de un mono con el objetivo de que el animal lograra mover una mano robótica con su cerebro.

Sin dudas la noticia parece sacada de una película futurista, pero de esas bien densas y oscuras ya que estremece no sólo ver al animal atrapado y sólo con la posibilidad de poder reaccionar con su cerebro (como se puede apreciar en este video), sino también ver cómo esa mano robótica se mueve sólo porque recibieron la respuesta motriz directamente de la neurona conectada por los científicos.

Según informaron los investigadores chinos, este experimento logró capturar y descifrar señales cerebrales del mono y traducirlas al movimiento indicado de los dedos de la interfaz conectada. Los dos sensores implantados en el cerebro del mono, de nombre Jianhui, sólo monitorean 200 neuronas del córtex motriz, lo que indica que las posibilidades de expansión de este proyecto son infinitas.

Luego de este primer paso, el objetivo a lograr es desarrollar movimientos cada vez más finos y precisos en los dedos de la prótesis. La investigadora Zheng Xiaoxiang comentó al respecto que “los movimientos de las manos están asociados con al menos varios cientos de neuronas. Ahora hemos descifrado los movimientos basados en 200 neuronas. Y claro, las órdenes que produjimos todavía están distantes en complejidad y fineza de los movimientos de los dedos verdaderamente flexibles”.

Si acaso la pareja de robots jugadores de ping pong chinos les parecieron un avance tecnológico relevante en los proyectos de robótica salidos de Zhejiang, imaginamos que este mono podría ser en breve el futuro Charles Xavier del gigante de Asia.

Link: http://pijamasurf.com/2012/02/mono-controla-mano-robotica-por-medio-de-implantes-cerebrales/

La Web


Es un sistema de distribución de información basado en hipertexto o hipermedios enlazados y accesibles a través de Internet. Con un navegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener texto, imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.

La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee con la ayuda del belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas web), y en los últimos años ha abogado por su visión de una Web semántica.


La 'Web 1.0 (1991-2003) es la forma más básica que existe, con navegadores de sólo texto bastante rápidos. Después surgió el HTML que hizo las páginas web más agradables a la vista, así como los primeros navegadores visuales tales como IE, Netscape,explorer (en versiones antiguas), etc.

La Web 1.0 es de sólo lectura. El usuario no puede interactuar con el contenido de la página (nada de comentarios, respuestas, citas, etc), estando totalmente limitado a lo que el Webmaster sube a ésta.

Web 1.0 se refiere a un estado de la World Wide Web, y cualquier página web diseñada con un estilo anterior del fenómeno de la Web 2.0. Es en general un término que ha sido creado para describir la Web antes del impacto de la fiebre punto com en el 2001, que es visto por muchos como el momento en que el internet dio un giro

Es la forma más fácil en el sentido del término Web 1.0 cuando es usada en relación a término Web 2.0, para comparar los dos y mostrar ejemplos de cada uno.

Diseño de elementos en la Web 1.0 Algunos elementos de diseño típicos de un sitio Web 1.0 incluyen:

  • Páginas estáticas en vez de dinámicas por el usuario que la visita
  • El uso de framesets o Marcos.
  • Extensiones propias del HTML como el parpadeo y las marquesinas, etiquetas introducidas durante la guerra de navegadores web.
  • Libros de visitas online o guestbooks
  • botonesGIF, casi siempre a una resolución típica de 88x31 pixels en tamaño promocionando navegadores web u otros productos.
  • formularios HTML enviados vía email. Un usuario llenaba un formulario y después de hacer clic se enviaba a través de un cliente de correo electrónico, con el problema que en el código se podía observar los detalles del envío del correo electrónico.




El término Web 2.0 está asociado a aplicaciones web que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario1 y la colaboración en la World Wide Web. Un sitio Web 2.0 permite a los usuarios interactuar y colaborar entre sí como creadores de contenido generado por usuarios en una comunidad virtual, a diferencia de sitios web donde los usuarios se limitan a la observación pasiva de los contenidos que se ha creado para ellos. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogs, mashups y folcsonomías.

El término Web 2.0 está asociado estrechamente con Tim O'Reilly, debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004.2 Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee, quien calificó al término como "tan sólo una jerga"- precisamente porque tenía la intención de que la Web incorporase estos valores en el primer lugar.


Se puede decir que una web está construida usando tecnología de la Web 2.0 si se caracteriza por las siguientes técnicas:


Técnicas:
CSS, marcado XHTML válido semánticamente y Microformatos
Técnicas de aplicaciones ricas no intrusivas (como AJAX)
Java Web Start
Redifusión/Agregación de datos en RSS/ATOM
URLs sencillas con significado semántico
Soporte para postear en un blog
JCC y APIs REST o XML
JSON
Algunos aspectos de redes sociales
Mashup (aplicación web híbrida)


General:
El sitio debe estar listo para la entrada de cualquier persona
El sitio no debe actuar como un "jardín cerrado": la información debe poderse introducir y extraer fácilmente
Los usuarios deberían controlar su propia información
Basada exclusivamente en la Web: los sitios Web 2.0 con más éxito pueden ser utilizados enteramente desde un navegador
La existencia de links es requisito imprescindible



jueves, 22 de marzo de 2012

México: Se construyen las instalaciones para la supercomputadora ABACUS



En la región boscosa de La Escondida, Estado de México, se construyen las instalaciones donde estará alojada la supercomputadora ABACUS, la cual servirá para buscar soluciones a diferentes problemas de la ciencia y tecnología de México. Es desarrollado por el Consejo Mexiquense de Ciencia y Tecnología (Comecyt) y el Centro de Investigación v de Estudios Avanzados del Instituto Politécnico Nacional (Cinvestav).

El proyecto se basó en el modelo del Barcelona Supercomputing Centre (BSC) y también es apoyado por la empresa MATHEON de Alemania por medio de una alianza estratégica. La inversión inicial del proyecto asciende a MXN$130 millones, por lo que ABACUS se convertirá en la supercomputadora más grande de México y en el proyecto más ambicioso que se ha llevado a cabo en nuestro país en más de 30 años.

En cuanto a las especificaciones técnicas, ABACUS contará con 400 Terabytes (Tb) de espacio en disco, una memoria RAM de 24 Tb y alcanzaría los 20 mil núcleos con una capacidad de procesamiento de 250 Teraflops.

ABACUS desarrollará matemáticas de punta, elaborará modelos y soluciones a problemas que tengan un fuerte impacto económico y social relacionados con la salud, la energía, el medio ambiente, la predicción del clima, transporte y hasta el sector industrial.

Por ejemplo, la máquina podría ser auxiliar en el desarrollo de nuevos medicamentos y procedimientos quirúrgicos; también en la secuenciación genómica, el estudio de contaminación por gases, análisis del subsuelo, terremotos, extracción petrolera, finanzas, mercados económicos, industria aeronáutica y automotriz, nanotecnología y problemas del transporte.

También jugará un papel importante en la formación de científicos de alto nivel que podrán interactuar con otros expertos en situaciones reales que buscan un alto desempeño en sus capacidades. Se estima que las obras terminarán dentro de 18 meses, por lo que se podrá adquirir el equipo para su instalación.

Link: http://www.eluniversaledomex.mx/otros/nota27805.html

lunes, 19 de marzo de 2012

Los Antivirus


Es un programa creado para prevenir o evitar la activación de los virus, así como su propagación y contagio. Cuenta además con rutinas de detención, eliminación y reconstrucción de los archivos y las áreas infectadas del sistema.
Un antivirus tiene tres principales funciones y componentes:
VACUNA es un programa que instalado residente en la memoria, actúa como "filtro" de los programas que son ejecutados, abiertos para ser leídos o copiados, en tiempo real.
DETECTOR, que es el programa que examina todos los archivos existentes en el disco o a los que se les indique en una determinada ruta o PATH. Tiene instrucciones de control y reconocimiento exacto de los códigos virales que permiten capturar sus pares, debidamente registrados y en forma sumamente rápida desarman su estructura.

ELIMINADOR es el programa que una vez desactivada la estructura del virus procede a eliminarlo e inmediatamente después a reparar o reconstruir los archivos y áreas afectadas.

Es importante aclarar que todo antivirus es un programa y que, como todo programa, sólo funcionará correctamente si es adecuado y está bien configurado. Además, un antivirus es una herramienta para el usuario y no sólo no será eficaz para el 100% de los casos, sino que nunca será una protección total ni definitiva.

La función de un programa antivirus es detectar, de alguna manera, la presencia o el accionar de un virus informático en una computadora. Este es el aspecto más importante de un antivirus, independientemente de las prestaciones adicionales que pueda ofrecer, puesto que el hecho de detectar la posible presencia de un virus informático, detener el trabajo y tomar las medidas necesarias, es suficiente para acotar un buen porcentaje de los daños posibles. Adicionalmente, un antivirus puede dar la opción de erradicar un virus informático de una entidad infectada.

El modelo más primario de las funciones de un programa antivirus es la detección de su presencia y, en lo posible, su identificación. La primera técnica que se popularizó para la detección de virus informáticos, y que todavía se sigue utilizando (aunque cada vez con menos eficiencia), es la técnica de scanning. Esta técnica consiste en revisar el código de todos los archivos contenidos en la unidad de almacenamiento -fundamentalmente los archivos ejecutables- en busca de pequeñas porciones de código que puedan pertenecer a un virus informático. Este procedimiento, denominado escaneo, se realiza a partir de una base de datos que contiene trozos de código representativos de cada virus conocido, agregando el empleo de determinados algoritmos que agilizan los procesos de búsqueda.

La técnica de scanning fue bastante eficaz en los primeros tiempos de los virus informáticos, cuando había pocos y su producción era pequeña. Este relativamente pequeño volumen de virus informáticos permitía que los desarrolladores de antivirus escaneadores tuvieran tiempo de analizar el virus, extraer el pequeño trozo de código que lo iba a identificar y agregarlo a la base de datos del programa para lanzar una nueva versión. Sin embargo, la obsolescencia de este mecanismo de identificación como una solución antivirus completa se encontró en su mismo modelo.

El primer punto grave de este sistema radica en que siempre brinda una solución a posteriori: es necesario que un virus informático alcance un grado de dispersión considerable para que sea enviado (por usuarios capacitados, especialistas o distribuidores del producto) a los desarrolladores de antivirus. Estos lo analizarán, extraerán el trozo de código que lo identificará, y lo incluirán en la próxima versión de su programa antivirus. Este proceso puede demorar meses a partir del momento en que el virus comienza a tener una dispersión considerable, lapso en el cual puede causar graves daños sin que pueda ser identificado.

Además, este modelo consiste en una sucesión infinita de soluciones parciales y momentáneas (cuya sumatoria jamás constituirá una solución definitiva), que deben actualizarse periódicamente debido a la aparición de nuevos virus.

En síntesis, la técnica de scanning es altamente ineficiente, pero se sigue utilizando debido a que permite identificar rápidamente la presencia de los virus más conocidos y, como son estos los de mayor dispersión, permite una importante gama de posibilidades. Un ejemplo típico de un antivirus de esta clase es el Viruscan de McAfee.

En virtud del pronto agotamiento técnico de la técnica de scanning, los desarrolladores de programas antivirus han dotado a sus creaciones de métodos para búsquedas de virus informáticos (y de sus actividades), que no identifican específicamente al virus sino a algunas de sus características generales y comportamientos universalizados.

Este tipo de método rastrea rutinas de alteración de información que no puedan ser controladas por el usuario, modificación de sectores críticos de las unidades de almacenamiento (master boot record, boot sector, FAT, entre otras), etc. Un ejemplo de este tipo de métodos es el que utiliza algoritmos heurísticos.

De hecho, esta naturaleza de procedimientos busca, de manera bastante eficiente, códigos de instrucciones potencialmente pertenecientes a un virus informático. Resulta eficaz para la detección de virus conocidos y es una de las soluciones utilizadas por los antivirus para la detección de nuevos virus. El inconveniente que presenta este tipo de algoritmo radica en que puede llegar a sospecharse de muchisimas cosas que no son virus. Esto hace necesario que el usuario que lo utiliza conozca un poco acerca de la estructura del sistema operativo, a fin de poseer herramientas que le faciliten una discriminación de cualquier falsa alarma generada por un método heurístico.

Algunos de los antivirus de esta clase son: F-Prot, Norton Anti Virus y Dr. Solomon's Toolkit. Ahora bien, otra forma de detectar la presencia de un virus informático en un sistema consiste en monitorear las actividades de la PC señalando si algún proceso intenta modificar los sectores críticos de los dispositivos de almacenamiento o los archivos ejecutables. Los programas que realizan esta tarea se denominan chequeadores de integridad. Sobre la base de estas consideraciones, podemos consignar que un buen sistema antivirus debe estar compuesto por un programa detector de virus, que siempre esté residente en memoria y un programa que verifique la integridad de los sectores críticos del disco rígido y sus archivos ejecutables. Existen productos antivirus que cubren los dos aspectos, o bien pueden combinarse productos diferentes configurados de forma que no se produzcan conflictos entre ellos.

jueves, 15 de marzo de 2012

Protocolo de Internet



Protocolo

Un protocolo es un conjunto de reglas usadas por computadoras para comunicarse unas con otras a través de una red por medio de intercambio de mensajes. Éste es una regla o estándar que controla o permite la comunicación en su forma más simple, puede ser definido como las reglas que dominan la sintaxis, semántica y sincronización de la comunicación. Los protocolos pueden ser implementados por hardware, software, o una combinación de ambos.







Protocolo de Internet

Un Protocolo de Internet es un conjunto de reglas técnicas que define cómo las computadoras se comunican dentro de una red. Actualmente, hay dos versiones: IP versión 4 (IPv4) e IP versión 6 (IPv6).





 Internet Protocol Versión 4 (IPv4)

Es la cuarta versión del protocolo Internet Protocol (IP), y la primera en ser implementada a gran escala. IPv4 usa direcciones de 32 bits, limitándola a  4.294.967.296 direcciones únicas, muchas de las cuales están dedicadas a redes locales (LAN)





 Internet Protocol Versión 6 (IPv6)

Es un protocolo de 128bits, lo que hace que el algunos cálculos sitúen el número de conexiones posibles en aproximadamente 34 trillones. IPv6 es el reemplazo de IPv4. Se lanzó en 1999 y soporta muchas más direcciones IP que deberían resultar suficientes para satisfacer las necesidades futuras. 






Diferencia entre IPv4 e IPv6

La principal diferencia entre IPv4 e IPv6 es la cantidad de direcciones IP. Existen algo más de 4.000 millones de direcciones IPv4. En cambio, existen más de 16 trillones de direcciones IPv6. El funcionamiento técnico de Internet es el mismo en ambas versiones y es probable que ambas continúen funcionando simultáneamente en las redes por mucho tiempo más. En la actualidad, la mayoría de las redes que usan IPv6 soportan tanto las direcciones IPv4 como las IPv6 en sus redes.

miércoles, 14 de marzo de 2012

Windows 8 para ARM no integrará funciones para empresas




Windows es un sistema operativo ampliamente usado por las empresas, y las versiones destinadas a este tipo de usuarios incluyen normalmente una serie de configuraciones extra que le permiten a la compañía controlar mejor su información. Pues bien, estas configuraciones no existirán en la versión ARM de Windows 8, al menos por ahora, según reveló la propia Microsoft en una guía de uso para empresas.

“Aunque la versión para ARM de Windows no incluye las mismas opciones de administración que las versiones de 32 y 64 bits, las empresas pueden usar estos dispositivos que ahorran energía en ambientes no controlados”, señala el documento. Esto significa que los equipos ARM no podrán ser agregados a la lista de Active Directories, ni sus usuarios podrán ser controlados por administradores, ni que se podrán controlar de forma remota. En definitiva esto podría hacer menos atractivo a Windows 8 – al menos en el terreno móvil – para las empresas.

Las versiones de 32 y 64 bit integrarán los sistemas existentes de administración de usuarios, usando las mismas herramientas de configuración, seguridad y otros temas que ya existen en Windows 7. Como alternativa en el terreno móvil, Microsoft presentó brevemente “Windows to Go”, que permite usar un disco USB para iniciar un PC desde una imagen aprobada por la empresa, que permite al usuario conectarse a la red de la compañía de forma remota desde un sistema no reconocido, sin dar al mismo tiempo acceso al sistema operativo a la red.

Windows to Go será presentado en mayor detalle en CeBIT próximamente. Aunque puede ser una buena solución para empleados que trabajan desde su casa o en oficinas compartidas, incluir las funciones de administración en ARM podría haberle dado una gran ventaja a Microsoft. Actualmente existen programas para realizar estas gestiones que se descargan como aplicación en iOS, Blackberry y Android, y que permiten funcionar a esos dispositivos en ambientes más controlados.

Link: http://arstechnica.com/microsoft/news/2012/02/windows-8-for-arm-will-lack-enterprise-management-features.ars?utm_source=rss&utm_medium=rss&utm_campaign=rss

martes, 13 de marzo de 2012

Topologia de Red


La topología de red se define como la cadena de comunicación usada por los modos que conforman una red para comunicarse.

Clasificación de la Redes

Por Tecnología

Red Point-To-Point: es aquella en la que existe multitud de conexiones entre parejas individuales de máquinas. Este tipo de red requiere, en algunos casos, máquinas intermedias que establezcan rutas para que puedan transmitirse paquetes de datos. El medio electrónico habitual para la interconexión es el conmutador, o switch.

Red broadcast: se caracteriza por transmitir datos por un sólo canal de comunicación que comparten todas las máquinas de la red. En este caso, el paquete enviado es recibido por todas las máquinas de la red pero únicamente la destinataria puede procesarlo. Los equipos unidos por un concentrador, o hub, forman redes de este tipo.


Por Topología Física


Red en topología de bus:
Red cuya topología se caracteriza por tener un único canal de comunicaciones (denominado bus, troncal o backbone) al cual se conectan los diferentes dispositivos. De esta forma todos los dispositivos comparten el mismo canal para comunicarse entre sí.

Ventajas
  a)      Facilidad de implementación y crecimiento.
  b)      Simplicidad en la arquitectura.

Desventajas
1)      Hay un límite de equipos dependiendo de la calidad de la señal.
2)      Puede producirse degradación de la señal.
3)      Complejidad de reconfiguración y aislamiento de fallos.
4)      Limitación de las longitudes físicas del canal.
5)      Un problema en el canal usualmente degrada toda la red.
6)      El desempeño se disminuye a medida que la red crece.
7)      El canal requiere ser correctamente cerrado (caminos cerrados).
8)      Altas pérdidas en la transmisión debido a colisiones entre mensajes.
9)      Es una red que ocupa mucho espacio


Red con topología de anillo:

Topología de red en la que cada estación está conectada a la siguiente y la última está conectada a la primera. Cada estación tiene un receptor y un transmisor que hace la función de repetidor, pasando la señal a la siguiente estación.
En este tipo de red la comunicación se da por el paso de un token o testigo, que se puede conceptualizar como un cartero que pasa recogiendo y entregando paquetes de información, de esta manera se evitan eventuales pérdidas de información debidas a colisiones.
En un anillo doble (Token Ring), dos anillos permiten que los datos se envíen en ambas direcciones (Token passing). Esta configuración crea redundancia (tolerancia a fallos). Evita las colisiones.

Ventajas
a)      El sistema provee un acceso equitativo para todas las computadoras.
b)      El rendimiento no decae cuando muchos usuarios utilizan la red.
c)      Arquitectura muy sólida.
d)      Raramente entra en conflictos con usuarios.

Desventajas
a)      Longitudes de canales
b)      El canal usualmente se degradará a medida que la red crece.
c)      Difícil de diagnosticar y reparar los problemas.
d)      Si una estación o el canal falla, las restantes quedan incomunicadas (Circuito unidireccional).

Una red en estrella

Es una red en la cual las estaciones están conectadas directamente a un punto central y todas las comunicaciones se han de hacer necesariamente a través de este. Los dispositivos no están directamente conectados entre sí, además de que no se permite tanto tráfico de información. Dado su transmisión, una red en estrella activa tiene un nodo central activo que normalmente tiene los medios para prevenir problemas relacionados con el eco.

Se utiliza sobre todo para redes locales. La mayoría de las redes de área local que tienen un enrutador (router), un conmutador (switch) o un concentrador (hub) siguen esta topología. El nodo central en estas sería el enrutador, el conmutador o el concentrador, por el que pasan todos los paquetes de usuarios.

Ventajas
a)      Si un PC se desconecta o se rompe el cable solo queda fuera de la red ese PC.
b)      Fácil de agregar, reconfigurar arquitectura PC.
c)      Fácil de prevenir daños o conflictos.
d)      Centralización de la red

Desventajas
a)      Si el nodo central falla, toda la red deja de transmitir.
b)      Es costosa, ya que requiere más cable que las topologías bus o anillo.
c)      El cable viaja por separado del concentrador a cada computadora.


Red con topología de malla

La topología de red mallada es una topología de red en la que cada nodo está conectado a todos los nodos. De esta manera es posible llevar los mensajes de un nodo a otro por diferentes caminos. Si la red de malla está completamente conectada, puede existir absolutamente ninguna interrupción en las comunicaciones. Cada servidor tiene sus propias conexiones con todos los demás servidores.

Ventajas
a)      Es posible llevar los mensajes de un nodo a otro por diferentes caminos.
b)      No puede existir absolutamente ninguna interrupción en las comunicaciones.
c)      Cada servidor tiene sus propias comunicaciones con todos los demás servidores.
d)      Si falla un cable el otro se hará cargo del trafico.
e)      No requiere un nodo o servidor central lo que reduce el mantenimiento.
f)      Si un nodo desaparece o falla no afecta en absoluto a los demás nodos.
g)      Si desaparece no afecta tanto a los nodos de redes.

Desventajas
a)      El costo de la red puede aumentar en los casos en los que se implemente de forma alámbrica, la topología de red y las características de la misma implican el uso de más recursos.

b)      En el caso de implementar una red en malla para atención de emergencias en ciudades con densidad poblacional de más de 5000 habitantes por kilómetro cuadrado, la disponibilidad del ancho de banda puede verse afectada por la cantidad de usuarios que hacen uso de la red simultáneamente; para entregar un ancho de banda que garantice la tasa de datos en demanda y, que en particular, garantice las comunicaciones entre organismos de rescate, es necesario instalar más puntos de acceso, por tanto, se incrementan los costos de implementación y puesta en marcha.


Red en topología de árbol

Topología de red en la que los nodos están colocados en forma de árbol. Desde una visión topológica, la conexión en árbol es parecida a una serie de redes en estrella interconectadas salvo en que no tiene un nodo central. En cambio, tiene un nodo de enlace troncal, generalmente ocupado por un hub o switch, desde el que se ramifican los demás nodos. Es una variación de la red en bus, la falla de un nodo no implica interrupción en las comunicaciones. Se comparte el mismo canal de comunicaciones.

La topología en árbol puede verse como una combinación de varias topologías en estrella. Tanto la de árbol como la de estrella son similares a la de bus cuando el nodo de interconexión trabaja en modo difusión, pues la información se propaga hacia todas las estaciones, solo que en esta topología las ramificaciones se extienden a partir de un punto raíz (estrella), a tantas ramificaciones como sean posibles, según las características del árbol.

Los problemas asociados a las topologías anteriores radican en que los datos son recibidos por todas las estaciones sin importar para quien vayan dirigidos. Es entonces necesario dotar a la red de un mecanismo que permita identificar al destinatario de los mensajes, para que estos puedan recogerlos a su arribo. Además, debido a la presencia de un medio de transmisión compartido entre muchas estaciones, pueden producirse interferencia entre las señales cuando dos o más estaciones transmiten al mismo tiempo.

Ventajas
1)      Cableado punto a punto para segmentos individuales.
2)      Soportado por multitud de vendedores de software y de hardware.

Desventajas
1)      Se requiere mucho cable.
2)      La medida de cada segmento viene determinada por el tipo de cable utilizado.
3)      Si se viene abajo el segmento principal todo el segmento se viene abajo con él.
4)      Es más difícil su configuración. 

Las Redes de topologías mixtas:

Son aquellas en las que se aplica una mezcla entre alguna de las otras topologías: bus, estrella o anillo. Principalmente podemos encontrar dos topologías mixtas: Estrella - Bus y Estrella - Anillo.

domingo, 11 de marzo de 2012

Red LAN y WAN


Una red de computadoras, también llamada red de ordenadores, red de comunicaciones de datos o red informática, es un conjunto de equipos informáticos y software conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos, ondas electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información, recursos y ofrecer servicios.

Ahora veamos de la definicion de los Tipos de Red:

LAN (Local Area Network): Una red de área local, o red local, son redes de propiedad privada, de hasta unos cuantos kilómetros de extensión. Por ejemplo una oficina o un centro educativo. Se usan para conectar computadoras personales o estaciones de trabajo, con objeto de compartir recursos e intercambiar información. Suelen emplear tecnología de difusión mediante un cable sencillo al que están conectadas todas las máquinas. Operan a velocidades entre 10 y 100 Mbps.




WAN (Wide Area Network): Una Red de Área Amplia  es un tipo de red de computadoras capaz de cubrir distancias desde unos 100 hasta unos 1000 km, proveyendo de servicio a un país o un continente. Son enlaces para grandes distancias que amplían la LAN hasta convertirla en una red de área extensa (WAN). Casi todos los operadores de redes nacionales (como DBP en Alemania o British Telecom en Inglaterra) ofrecen servicios para interconectar redes de computadoras.



Diferencias entre Red LAN y WAN:

Una de las diferencias entre redes LAN y WAN, es la distancia que cubren estas redes. La LAN no supera los 100 metros, y la WAN tiene una cobertura de entre 100 y 1000 kilómetros.

La segunda diferencia que nos encontramos entre estas dos redes es la de la velocidad, donde la red LAN alcanza una velocidad de transferencia de entre 1 Mbps hasta 4 Gbps y la red WAN de entre 1 Mbps y 1* Gbps.

La tercera diferecencia entre LAN y WAN tiene que ver con las siglas CMT (Comisión del Mercado de las Telecomunicaciones). El CMT es un comité que se encarga de controlar el buen funcionamiento de la red WAN, la cual al ser tan grande, necesita estar controlada continuamente. En cambio la red LAN no necesita el control de este comité porque al ser más pequeña su cobertura es más fácil de controlar.

jueves, 8 de marzo de 2012

Facebook lanza Timeline para páginas de empresas



Tal como se había rumoreado hace algunos días, Timeline ya está disponible para Pages – es decir, las páginas de empresas. Se ven exactamente igual como el Timeline de personas comunes y corrientes, pero entregan algunas opciones extra para los administradores.

El Timeline integra fotos más grandes y muestra “hitos”, que son los equivalentes corporativos de los eventos de la vida que aparecen en el Timeline personal.

Las fotos más grandes debieran inspirar a los usuarios a navegar más tiempo por las páginas corporativas, y la nueva disposición de los elementos posiblemente inspire nuevas formas de interacción por parte de las empresas. El nuevo Timeline para Pages se puede instalar a partir de hoy, aunque también existe la opción de dejar la página en modo de prueba por 30 días. Se espera que este Timeline se vuelva obligatorio a partir del 30 de marzo.

Facebook también publicó un video explicativo sobre cómo funciona. Las APIs que se hayan implementado en la página seguirán funcionando como hasta ahora.

Timeline no está disponible todavía en móviles. Puedes revisar nuestro nuevo Page aquí.



viernes, 2 de marzo de 2012

Tableta


Una tableta (del inglés: tablet o tablet computer) es un tipo de computadora portátil, de mayor tamaño que un Smartphone o una PDA, integrado en una pantalla táctil (sencilla o multitáctil) con la que se interactúa primariamente con los dedos o una pluma stylus (pasiva o activa), sin necesidad de teclado físico ni ratón. Estos últimos se ven reemplazados por un teclado virtual y, en determinados modelos, por una mini-trackball integrada en uno de los bordes de la pantalla.



Origen


Los primeros ejemplos del concepto tableta de información se originaron en los siglos 19 y 20, principalmente como prototipos e ideas conceptuales, de los cuales el más prominente fue el Dynabook de Alan Kay en 1972. Los primeros dispositivos electrónicos portátiles basados ​​en el concepto aparecieron a finales del siglo 20. Finalmente en 2010 Apple Inc. presenta el iPad, basado en su exitoso iPhone, alcanzando el éxito comercial al proveer por fin de la interfaz adecuada.

Hoy en día las tabletas utilizan un sistema operativo diseñado con la movilidad en mente (iOS, Android y el minoritario Symbian provienen del campo Smartphone, donde se reparten el mercado; MeeGo y HP webOS provienen del mundo PDA).


Evolución

GRIDPAD: La primera Tablet del mercado, creada en 1982 y lanzada en 1989.Pesaba 2 Kl, media 29,2 x 23,6 x 3,7 cm, el procesador era de 386 de 20 MHz


TABLET PC: Fue creada equipados con pantallas sensibles al tacto que rodaban una versión modificada del Windows XP en 2001 por Microsoft, preparada para operar con bolígrafo.

NOKIA 770 (2005): Peso: 230g, Dimensiones: 141 x 79 x 19mm, mismo software de 2005 acceso SIM, características similares a  la tablet PC anterior (ORIGAMI)

ORIGAMI (2006): Pantalla de 7 pulgadas Pantalla táctil integrada, WiFi y Bluetooth integrados, posibilidad de añadir módulos de GPS, televisión digital.

IPAD (2010): Alto: 24.12cm, Ancho 18.57cm, Fondo: 0.88cm, Peso: 601g, capacidad de 16-32-64 Gb, procesador doble núcleo a 1GHz cámara frontal y cámara trasera con grabación de vídeo HD (720p) de hasta 30 fotogramas por segundo.

Tipos


Un tablet PC convertible normalmente tiene una pantalla que gira 180 grados y se puede plegar para cerrar, la pantalla hacia arriba, sobre el teclado integrado. Los modelos convertibles pueden permitir la entrada del usuario a través de una variedad de métodos, además del teclado de hardware, incluyendo escritura a mano con un lápiz óptico o digital y escribir a través de un teclado de software basado en la pantalla.




Un tablet PC de pizarra, como un iPad, tiene electrónica integrada en la unidad de pantalla táctil y carece de un teclado de hardware. Sin embargo, teclados externos están disponibles para tablillas de pizarra, algunas de las cuales funcionan como muelles para los dispositivos.




Un tablet PC híbrido, a veces referido como un portátil con vertible o híbrida, es como un portátil normal, pero con una pantalla removible que funciona de forma independiente como una pizarra.







Un tablet PC resistente, es un modelo de pizarra, como que está diseñado para soportar el manejo rudo y condiciones extremas. Tabletas son robustos envuelta casi siempre en una capa protectora y se han protegido contra impactos unidades de disco duro.








Característica

  • Peso, dimensiones, diseño y calidad de sus materiales.
  • Tamaño de la pantalla y su capacidad de respuesta al toque, así como su resolución y luminosidad.

  • Capacidad de almacenamiento y memoria RAM, tipos de conectores y puertos, sensores específicos, la conectividad WiFi - 3G/4G a Internet o entre dispositivos con Bluetooth, duración de la batería, etc.…
  • Los elementos que componen las funciones de sonido, tanto entrada (micrófono) como salida (altavoces) o las de imagen con su cámara para la grabación de vídeo y fotografía.

  •  El procesador. Este es su motor y cerebro, se debe prestar especial atención porque es quien determina su velocidad, rendimiento y consumo.

  • El Sistema Operativo. Este puede ser independiente al fabricante del dispositvo como es el caso de Android y Windows, o por el contrario provenir del mismo fabricante del aparato como sucede en los dispositivos Tablets de Apple y de RIM, más conocido como BlackBerry. 

  • Debemos saber que el tipo de Sistema Operativo condiciona la facilidad de uso así como el número y la calidad de las aplicaciones que tendremos disponibles para utilizarlas en nuestro dispositivo.


  • Las 5 Mejores Marcas



    1) Apple (El Ipad 2)










    2) Motorola (Motorola XOOM)











    3) BlackBerry (BlackBerry PlayBook)










    4) HP (HP PalmPad)










    5) Dell (Dell Streak 7)