viernes, 30 de marzo de 2012
Modelo OSI
Modelo OSI
El modelo de interconexión de sistemas abiertos, también llamado OSI (en inglés open system interconnection) es el modelo de red descriptivo creado por la Organización Internacional para la Estandarización en el año 1984. Es decir, es un marco de referencia para la definición de arquitecturas de interconexión de sistemas de comunicaciones.
Fue desarrollado en 1984 por la Organización Internacional de Estándares (ISO), una federación global de organizaciones que representa aproximadamente a 130 países. El núcleo de este estándar es el modelo de referencia OSI, una normativa formada por siete capas que define las diferentes fases por las que deben pasar los datos para viajar de un dispositivo a otro sobre una red de comunicaciones.
Siguiendo el esquema de este modelo se crearon numerosos protocolos. El advenimiento de protocolos más flexibles donde las capas no están tan desmarcadas y la correspondencia con los niveles no era tan clara puso a este esquema en un segundo plano. Sin embargo es muy usado en la enseñanza como una manera de mostrar cómo puede estructurarse una "pila" de protocolos de comunicaciones.
El modelo especifica el protocolo que debe ser usado en cada capa, y suele hablarse de modelo de referencia ya que es usado como una gran herramienta para la enseñanza de comunicación de redes.
Se trata de una normativa estandarizada útil debido a la existencia de muchas tecnologías, fabricantes y compañías dentro del mundo de las comunicaciones, y al estar en continua expansión, se tuvo que crear un método para que todos pudieran entenderse de algún modo, incluso cuando las tecnologías no coincidieran. De este modo, no importa la localización geográfica o el lenguaje utilizado. Todo el mundo debe atenerse a unas normas mínimas para poder comunicarse entre sí. Esto es sobre todo importante cuando hablamos de la red de redes, es decir, Internet.
Capa física
Es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico como a la forma en la que se transmite la información.
Sus principales funciones se pueden resumir como:
Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
Transmitir el flujo de bits a través del medio.
Manejar las señales eléctricas del medio de transmisión, polos en un enchufe, etc.
Garantizar la conexión (aunque no la fiabilidad de dicha conexión)
Capa de enlace de datos
Esta capa se ocupa del direccionamiento físico, de la topología de la red, del acceso al medio, de la detección de errores, de la distribución ordenada de tramas y del control del flujo.
Por lo cual es uno de los aspectos más importantes a revisar en el momento de conectar dos ordenadores, ya que está entre la capa 1 y 3 como parte esencial para la creación de sus protocolos básicos (MAC, IP), para regular la forma de la conexión entre computadoras asi determinando el paso de tramas (trama = unidad de medida de la información en esta capa, que no es más que la segmentación de los datos trasladándolos por medio de paquetes), verificando su integridad, y corrigiendo errores, por lo cual es importante mantener una excelente adecuación al medio físico (los más usados son el cable UTP, par trenzado o de 8 hilos), con el medio de red que redirecciona las conexiones mediante un router. Dadas estas situaciones cabe recalcar que el dispositivo que usa la capa de enlace es el Switch que se encarga de recibir los datos del router y enviar cada uno de estos a sus respectivos destinatarios (servidor -> computador cliente o algún otro dispositivo que reciba información como celulares, etc.), dada esta situación se determina como el medio que se encarga de la corrección de errores, manejo de tramas, protocolización de datos (se llaman protocolos a las reglas que debe seguir cualquier capa del modelol OSI).
Capa de red
Se encarga de identificar el enrutamiento existente entre una o más redes. Las unidades de información se denominan paquetes, y se pueden clasificar en protocolos enrutables y protocolos de enrutamiento.
Enrutables: viajan con los paquetes (IP, IPX, APPLETALK)
Enrutamiento: permiten seleccionar las rutas (RIP,IGRP,EIGRP,OSPF,BGP)
El objetivo de la capa de red es hacer que los datos lleguen desde el origen al destino, aún cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominanencaminadores, aunque es más frecuente encontrarlo con el nombre en inglés routers. Los routers trabajan en esta capa, aunque pueden actuar como switch de nivel 2 en determinados casos, dependiendo de la función que se le asigne. Los firewalls actúan sobre esta capa principalmente, para descartar direcciones de máquinas.
En este nivel se realiza el direccionamiento lógico y la determinación de la ruta de los datos hasta su receptor final.
Capa de transporte
Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la de destino, independizándolo del tipo de red física que se esté utilizando. LaPDU de la capa 4 se llama Segmento o Datagrama, dependiendo de si corresponde a TCP o UDP. Sus protocolos son TCP y UDP; el primero orientado a conexión y el otro sin conexión. Trabajan, por lo tanto, con puertos lógicos y junto con la capa red dan forma a los conocidos como Sockets IP:Puerto (191.16.200.54:80).
Capa de sesión
Esta capa es la que se encarga de mantener y controlar el enlace establecido entre dos computadores que están transmitiendo datos de cualquier índole. Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcial o totalmente prescindibles.
Capa de presentación
El objetivo es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres los datos lleguen de manera reconocible.
Esta capa es la primera en trabajar más el contenido de la comunicación que el cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.
Esta capa también permite cifrar los datos y comprimirlos. Por lo tanto, podría decirse que esta capa actúa como un traductor.
Capa de aplicación
Ofrece a las aplicaciones la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (Post Office Protocol y SMTP), gestores de bases de datos y servidor de ficheros (FTP), por UDP pueden viajar (DNS y Routing Information Protocol). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.
Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente.
jueves, 29 de marzo de 2012
Aterrador: Mono controla mano robótica por medio de implantes cerebrales
De no ser por la cortina de censura que cae sobre el gigante asiático, quizás la universidad china de Zhejiang podría ser considerada como el MIT de Asia. Hace pocos días informaron que lograron implantar sensores en el córtex motriz cerebral de un mono con el objetivo de que el animal lograra mover una mano robótica con su cerebro.
Sin dudas la noticia parece sacada de una película futurista, pero de esas bien densas y oscuras ya que estremece no sólo ver al animal atrapado y sólo con la posibilidad de poder reaccionar con su cerebro (como se puede apreciar en este video), sino también ver cómo esa mano robótica se mueve sólo porque recibieron la respuesta motriz directamente de la neurona conectada por los científicos.
Según informaron los investigadores chinos, este experimento logró capturar y descifrar señales cerebrales del mono y traducirlas al movimiento indicado de los dedos de la interfaz conectada. Los dos sensores implantados en el cerebro del mono, de nombre Jianhui, sólo monitorean 200 neuronas del córtex motriz, lo que indica que las posibilidades de expansión de este proyecto son infinitas.
Luego de este primer paso, el objetivo a lograr es desarrollar movimientos cada vez más finos y precisos en los dedos de la prótesis. La investigadora Zheng Xiaoxiang comentó al respecto que “los movimientos de las manos están asociados con al menos varios cientos de neuronas. Ahora hemos descifrado los movimientos basados en 200 neuronas. Y claro, las órdenes que produjimos todavía están distantes en complejidad y fineza de los movimientos de los dedos verdaderamente flexibles”.
Si acaso la pareja de robots jugadores de ping pong chinos les parecieron un avance tecnológico relevante en los proyectos de robótica salidos de Zhejiang, imaginamos que este mono podría ser en breve el futuro Charles Xavier del gigante de Asia.
Link: http://pijamasurf.com/2012/02/mono-controla-mano-robotica-por-medio-de-implantes-cerebrales/
La Web
Es un sistema de distribución de información basado en hipertexto o hipermedios enlazados y accesibles a través de Internet. Con un navegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener texto, imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.
La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee con la ayuda del belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas web), y en los últimos años ha abogado por su visión de una Web semántica.
La 'Web 1.0 (1991-2003) es la forma más básica que existe, con navegadores de sólo texto bastante rápidos. Después surgió el HTML que hizo las páginas web más agradables a la vista, así como los primeros navegadores visuales tales como IE, Netscape,explorer (en versiones antiguas), etc.
La Web 1.0 es de sólo lectura. El usuario no puede interactuar con el contenido de la página (nada de comentarios, respuestas, citas, etc), estando totalmente limitado a lo que el Webmaster sube a ésta.
Web 1.0 se refiere a un estado de la World Wide Web, y cualquier página web diseñada con un estilo anterior del fenómeno de la Web 2.0. Es en general un término que ha sido creado para describir la Web antes del impacto de la fiebre punto com en el 2001, que es visto por muchos como el momento en que el internet dio un giro
Es la forma más fácil en el sentido del término Web 1.0 cuando es usada en relación a término Web 2.0, para comparar los dos y mostrar ejemplos de cada uno.
Diseño de elementos en la Web 1.0 Algunos elementos de diseño típicos de un sitio Web 1.0 incluyen:
- Páginas estáticas en vez de dinámicas por el usuario que la visita
- El uso de framesets o Marcos.
- Extensiones propias del HTML como el parpadeo y las marquesinas, etiquetas introducidas durante la guerra de navegadores web.
- Libros de visitas online o guestbooks
- botonesGIF, casi siempre a una resolución típica de 88x31 pixels en tamaño promocionando navegadores web u otros productos.
- formularios HTML enviados vía email. Un usuario llenaba un formulario y después de hacer clic se enviaba a través de un cliente de correo electrónico, con el problema que en el código se podía observar los detalles del envío del correo electrónico.
El término Web 2.0 está asociado a aplicaciones web que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario1 y la colaboración en la World Wide Web. Un sitio Web 2.0 permite a los usuarios interactuar y colaborar entre sí como creadores de contenido generado por usuarios en una comunidad virtual, a diferencia de sitios web donde los usuarios se limitan a la observación pasiva de los contenidos que se ha creado para ellos. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogs, mashups y folcsonomías.
El término Web 2.0 está asociado estrechamente con Tim O'Reilly, debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004.2 Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee, quien calificó al término como "tan sólo una jerga"- precisamente porque tenía la intención de que la Web incorporase estos valores en el primer lugar.
Se puede decir que una web está construida usando tecnología de la Web 2.0 si se caracteriza por las siguientes técnicas:
Técnicas:
CSS, marcado XHTML válido semánticamente y Microformatos
Técnicas de aplicaciones ricas no intrusivas (como AJAX)
Java Web Start
Redifusión/Agregación de datos en RSS/ATOM
URLs sencillas con significado semántico
Soporte para postear en un blog
JCC y APIs REST o XML
JSON
Algunos aspectos de redes sociales
Mashup (aplicación web híbrida)
General:
El sitio debe estar listo para la entrada de cualquier persona
El sitio no debe actuar como un "jardín cerrado": la información debe poderse introducir y extraer fácilmente
Los usuarios deberían controlar su propia información
Basada exclusivamente en la Web: los sitios Web 2.0 con más éxito pueden ser utilizados enteramente desde un navegador
La existencia de links es requisito imprescindible
jueves, 22 de marzo de 2012
México: Se construyen las instalaciones para la supercomputadora ABACUS
En la región boscosa de La Escondida, Estado de México, se construyen las instalaciones donde estará alojada la supercomputadora ABACUS, la cual servirá para buscar soluciones a diferentes problemas de la ciencia y tecnología de México. Es desarrollado por el Consejo Mexiquense de Ciencia y Tecnología (Comecyt) y el Centro de Investigación v de Estudios Avanzados del Instituto Politécnico Nacional (Cinvestav).
El proyecto se basó en el modelo del Barcelona Supercomputing Centre (BSC) y también es apoyado por la empresa MATHEON de Alemania por medio de una alianza estratégica. La inversión inicial del proyecto asciende a MXN$130 millones, por lo que ABACUS se convertirá en la supercomputadora más grande de México y en el proyecto más ambicioso que se ha llevado a cabo en nuestro país en más de 30 años.
En cuanto a las especificaciones técnicas, ABACUS contará con 400 Terabytes (Tb) de espacio en disco, una memoria RAM de 24 Tb y alcanzaría los 20 mil núcleos con una capacidad de procesamiento de 250 Teraflops.
ABACUS desarrollará matemáticas de punta, elaborará modelos y soluciones a problemas que tengan un fuerte impacto económico y social relacionados con la salud, la energía, el medio ambiente, la predicción del clima, transporte y hasta el sector industrial.
Por ejemplo, la máquina podría ser auxiliar en el desarrollo de nuevos medicamentos y procedimientos quirúrgicos; también en la secuenciación genómica, el estudio de contaminación por gases, análisis del subsuelo, terremotos, extracción petrolera, finanzas, mercados económicos, industria aeronáutica y automotriz, nanotecnología y problemas del transporte.
También jugará un papel importante en la formación de científicos de alto nivel que podrán interactuar con otros expertos en situaciones reales que buscan un alto desempeño en sus capacidades. Se estima que las obras terminarán dentro de 18 meses, por lo que se podrá adquirir el equipo para su instalación.
Link: http://www.eluniversaledomex.mx/otros/nota27805.html
lunes, 19 de marzo de 2012
Los Antivirus
Es un programa creado para prevenir o evitar la activación de los virus, así como su propagación y contagio. Cuenta además con rutinas de detención, eliminación y reconstrucción de los archivos y las áreas infectadas del sistema.
Un antivirus tiene tres principales funciones y componentes:
VACUNA es un programa que instalado residente en la memoria, actúa como "filtro" de los programas que son ejecutados, abiertos para ser leídos o copiados, en tiempo real.
DETECTOR, que es el programa que examina todos los archivos existentes en el disco o a los que se les indique en una determinada ruta o PATH. Tiene instrucciones de control y reconocimiento exacto de los códigos virales que permiten capturar sus pares, debidamente registrados y en forma sumamente rápida desarman su estructura.
ELIMINADOR es el programa que una vez desactivada la estructura del virus procede a eliminarlo e inmediatamente después a reparar o reconstruir los archivos y áreas afectadas.
Es importante aclarar que todo antivirus es un programa y que, como todo programa, sólo funcionará correctamente si es adecuado y está bien configurado. Además, un antivirus es una herramienta para el usuario y no sólo no será eficaz para el 100% de los casos, sino que nunca será una protección total ni definitiva.
La función de un programa antivirus es detectar, de alguna manera, la presencia o el accionar de un virus informático en una computadora. Este es el aspecto más importante de un antivirus, independientemente de las prestaciones adicionales que pueda ofrecer, puesto que el hecho de detectar la posible presencia de un virus informático, detener el trabajo y tomar las medidas necesarias, es suficiente para acotar un buen porcentaje de los daños posibles. Adicionalmente, un antivirus puede dar la opción de erradicar un virus informático de una entidad infectada.
El modelo más primario de las funciones de un programa antivirus es la detección de su presencia y, en lo posible, su identificación. La primera técnica que se popularizó para la detección de virus informáticos, y que todavía se sigue utilizando (aunque cada vez con menos eficiencia), es la técnica de scanning. Esta técnica consiste en revisar el código de todos los archivos contenidos en la unidad de almacenamiento -fundamentalmente los archivos ejecutables- en busca de pequeñas porciones de código que puedan pertenecer a un virus informático. Este procedimiento, denominado escaneo, se realiza a partir de una base de datos que contiene trozos de código representativos de cada virus conocido, agregando el empleo de determinados algoritmos que agilizan los procesos de búsqueda.
La técnica de scanning fue bastante eficaz en los primeros tiempos de los virus informáticos, cuando había pocos y su producción era pequeña. Este relativamente pequeño volumen de virus informáticos permitía que los desarrolladores de antivirus escaneadores tuvieran tiempo de analizar el virus, extraer el pequeño trozo de código que lo iba a identificar y agregarlo a la base de datos del programa para lanzar una nueva versión. Sin embargo, la obsolescencia de este mecanismo de identificación como una solución antivirus completa se encontró en su mismo modelo.
El primer punto grave de este sistema radica en que siempre brinda una solución a posteriori: es necesario que un virus informático alcance un grado de dispersión considerable para que sea enviado (por usuarios capacitados, especialistas o distribuidores del producto) a los desarrolladores de antivirus. Estos lo analizarán, extraerán el trozo de código que lo identificará, y lo incluirán en la próxima versión de su programa antivirus. Este proceso puede demorar meses a partir del momento en que el virus comienza a tener una dispersión considerable, lapso en el cual puede causar graves daños sin que pueda ser identificado.
Además, este modelo consiste en una sucesión infinita de soluciones parciales y momentáneas (cuya sumatoria jamás constituirá una solución definitiva), que deben actualizarse periódicamente debido a la aparición de nuevos virus.
En síntesis, la técnica de scanning es altamente ineficiente, pero se sigue utilizando debido a que permite identificar rápidamente la presencia de los virus más conocidos y, como son estos los de mayor dispersión, permite una importante gama de posibilidades. Un ejemplo típico de un antivirus de esta clase es el Viruscan de McAfee.
En virtud del pronto agotamiento técnico de la técnica de scanning, los desarrolladores de programas antivirus han dotado a sus creaciones de métodos para búsquedas de virus informáticos (y de sus actividades), que no identifican específicamente al virus sino a algunas de sus características generales y comportamientos universalizados.
Este tipo de método rastrea rutinas de alteración de información que no puedan ser controladas por el usuario, modificación de sectores críticos de las unidades de almacenamiento (master boot record, boot sector, FAT, entre otras), etc. Un ejemplo de este tipo de métodos es el que utiliza algoritmos heurísticos.
De hecho, esta naturaleza de procedimientos busca, de manera bastante eficiente, códigos de instrucciones potencialmente pertenecientes a un virus informático. Resulta eficaz para la detección de virus conocidos y es una de las soluciones utilizadas por los antivirus para la detección de nuevos virus. El inconveniente que presenta este tipo de algoritmo radica en que puede llegar a sospecharse de muchisimas cosas que no son virus. Esto hace necesario que el usuario que lo utiliza conozca un poco acerca de la estructura del sistema operativo, a fin de poseer herramientas que le faciliten una discriminación de cualquier falsa alarma generada por un método heurístico.
Algunos de los antivirus de esta clase son: F-Prot, Norton Anti Virus y Dr. Solomon's Toolkit. Ahora bien, otra forma de detectar la presencia de un virus informático en un sistema consiste en monitorear las actividades de la PC señalando si algún proceso intenta modificar los sectores críticos de los dispositivos de almacenamiento o los archivos ejecutables. Los programas que realizan esta tarea se denominan chequeadores de integridad. Sobre la base de estas consideraciones, podemos consignar que un buen sistema antivirus debe estar compuesto por un programa detector de virus, que siempre esté residente en memoria y un programa que verifique la integridad de los sectores críticos del disco rígido y sus archivos ejecutables. Existen productos antivirus que cubren los dos aspectos, o bien pueden combinarse productos diferentes configurados de forma que no se produzcan conflictos entre ellos.
jueves, 15 de marzo de 2012
Protocolo de Internet
Protocolo
Un protocolo es un conjunto de reglas usadas por computadoras para comunicarse unas con otras a través de una red por medio de intercambio de mensajes. Éste es una regla o estándar que controla o permite la comunicación en su forma más simple, puede ser definido como las reglas que dominan la sintaxis, semántica y sincronización de la comunicación. Los protocolos pueden ser implementados por hardware, software, o una combinación de ambos.
Protocolo de Internet
Un Protocolo de Internet es un conjunto de reglas técnicas que define cómo las computadoras se comunican dentro de una red. Actualmente, hay dos versiones: IP versión 4 (IPv4) e IP versión 6 (IPv6).
Internet Protocol Versión 4 (IPv4)
Es la cuarta versión del protocolo Internet Protocol (IP), y la primera en ser implementada a gran escala. IPv4 usa direcciones de 32 bits, limitándola a 4.294.967.296 direcciones únicas, muchas de las cuales están dedicadas a redes locales (LAN)
Internet Protocol Versión 6 (IPv6)
Es un protocolo de 128bits, lo que hace que el algunos cálculos sitúen el número de conexiones posibles en aproximadamente 34 trillones. IPv6 es el reemplazo de IPv4. Se lanzó en 1999 y soporta muchas más direcciones IP que deberían resultar suficientes para satisfacer las necesidades futuras.
Diferencia entre IPv4 e IPv6
La principal diferencia entre IPv4 e IPv6 es la cantidad de direcciones IP. Existen algo más de 4.000 millones de direcciones IPv4. En cambio, existen más de 16 trillones de direcciones IPv6. El funcionamiento técnico de Internet es el mismo en ambas versiones y es probable que ambas continúen funcionando simultáneamente en las redes por mucho tiempo más. En la actualidad, la mayoría de las redes que usan IPv6 soportan tanto las direcciones IPv4 como las IPv6 en sus redes.
miércoles, 14 de marzo de 2012
Windows 8 para ARM no integrará funciones para empresas
Windows es un sistema operativo ampliamente usado por las empresas, y las versiones destinadas a este tipo de usuarios incluyen normalmente una serie de configuraciones extra que le permiten a la compañía controlar mejor su información. Pues bien, estas configuraciones no existirán en la versión ARM de Windows 8, al menos por ahora, según reveló la propia Microsoft en una guía de uso para empresas.
“Aunque la versión para ARM de Windows no incluye las mismas opciones de administración que las versiones de 32 y 64 bits, las empresas pueden usar estos dispositivos que ahorran energía en ambientes no controlados”, señala el documento. Esto significa que los equipos ARM no podrán ser agregados a la lista de Active Directories, ni sus usuarios podrán ser controlados por administradores, ni que se podrán controlar de forma remota. En definitiva esto podría hacer menos atractivo a Windows 8 – al menos en el terreno móvil – para las empresas.
Las versiones de 32 y 64 bit integrarán los sistemas existentes de administración de usuarios, usando las mismas herramientas de configuración, seguridad y otros temas que ya existen en Windows 7. Como alternativa en el terreno móvil, Microsoft presentó brevemente “Windows to Go”, que permite usar un disco USB para iniciar un PC desde una imagen aprobada por la empresa, que permite al usuario conectarse a la red de la compañía de forma remota desde un sistema no reconocido, sin dar al mismo tiempo acceso al sistema operativo a la red.
Windows to Go será presentado en mayor detalle en CeBIT próximamente. Aunque puede ser una buena solución para empleados que trabajan desde su casa o en oficinas compartidas, incluir las funciones de administración en ARM podría haberle dado una gran ventaja a Microsoft. Actualmente existen programas para realizar estas gestiones que se descargan como aplicación en iOS, Blackberry y Android, y que permiten funcionar a esos dispositivos en ambientes más controlados.
Link: http://arstechnica.com/microsoft/news/2012/02/windows-8-for-arm-will-lack-enterprise-management-features.ars?utm_source=rss&utm_medium=rss&utm_campaign=rss
martes, 13 de marzo de 2012
Topologia de Red
La topología de red se define como la cadena de
comunicación usada por los modos que conforman una red para comunicarse.
Clasificación de la Redes
Red
Point-To-Point: es aquella en la que existe multitud de conexiones entre
parejas individuales de máquinas. Este tipo de red requiere, en algunos casos,
máquinas intermedias que establezcan rutas para que puedan transmitirse
paquetes de datos. El medio electrónico habitual para la interconexión es el
conmutador, o switch.
Red
broadcast: se caracteriza por transmitir datos por un sólo canal de
comunicación que comparten todas las máquinas de la red. En este caso, el
paquete enviado es recibido por todas las máquinas de la red pero únicamente la
destinataria puede procesarlo. Los equipos unidos por un concentrador, o hub,
forman redes de este tipo.
Por Topología Física
Red en topología de bus:
Red cuya topología se caracteriza por tener un
único canal de comunicaciones (denominado bus, troncal o backbone) al cual se
conectan los diferentes dispositivos. De esta forma todos los dispositivos
comparten el mismo canal para comunicarse entre sí.
Ventajas
a) Facilidad
de implementación y crecimiento.
b) Simplicidad
en la arquitectura.
Desventajas
1) Hay
un límite de equipos dependiendo de la calidad de la señal.
2) Puede
producirse degradación de la señal.
3) Complejidad
de reconfiguración y aislamiento de fallos.
4) Limitación
de las longitudes físicas del canal.
5) Un
problema en el canal usualmente degrada toda la red.
6) El
desempeño se disminuye a medida que la red crece.
7) El
canal requiere ser correctamente cerrado (caminos cerrados).
8) Altas
pérdidas en la transmisión debido a colisiones entre mensajes.
9) Es
una red que ocupa mucho espacio
Red con
topología de anillo:
Topología de red en la que cada estación está
conectada a la siguiente y la última está conectada a la primera. Cada estación
tiene un receptor y un transmisor que hace la función de repetidor, pasando la
señal a la siguiente estación.
En este tipo de red la comunicación se da por el
paso de un token o testigo, que se puede conceptualizar como un cartero que
pasa recogiendo y entregando paquetes de información, de esta manera se evitan
eventuales pérdidas de información debidas a colisiones.
En un anillo doble (Token Ring), dos anillos
permiten que los datos se envíen en ambas direcciones (Token passing). Esta
configuración crea redundancia (tolerancia a fallos). Evita las colisiones.
Ventajas
a) El
sistema provee un acceso equitativo para todas las computadoras.
b) El
rendimiento no decae cuando muchos usuarios utilizan la red.
c) Arquitectura
muy sólida.
d) Raramente
entra en conflictos con usuarios.
Desventajas
a) Longitudes
de canales
b) El
canal usualmente se degradará a medida que la red crece.
c) Difícil
de diagnosticar y reparar los problemas.
d) Si
una estación o el canal falla, las restantes quedan incomunicadas (Circuito
unidireccional).
Una red en
estrella
Es una red en la cual las estaciones están
conectadas directamente a un punto central y todas las comunicaciones se han de
hacer necesariamente a través de este. Los dispositivos no están directamente
conectados entre sí, además de que no se permite tanto tráfico de información.
Dado su transmisión, una red en estrella activa tiene un nodo central activo
que normalmente tiene los medios para prevenir problemas relacionados con el
eco.
Se utiliza sobre todo para redes locales. La
mayoría de las redes de área local que tienen un enrutador (router), un
conmutador (switch) o un concentrador (hub) siguen esta topología. El nodo
central en estas sería el enrutador, el conmutador o el concentrador, por el
que pasan todos los paquetes de usuarios.
Ventajas
a) Si
un PC se desconecta o se rompe el cable solo queda fuera de la red ese PC.
b) Fácil
de agregar, reconfigurar arquitectura PC.
c) Fácil
de prevenir daños o conflictos.
d) Centralización
de la red
Desventajas
a) Si
el nodo central falla, toda la red deja de transmitir.
b) Es
costosa, ya que requiere más cable que las topologías bus o anillo.
c) El
cable viaja por separado del concentrador a cada computadora.
Red con
topología de malla
La topología de red mallada es una topología de red
en la que cada nodo está conectado a todos los nodos. De esta manera es posible
llevar los mensajes de un nodo a otro por diferentes caminos. Si la red de
malla está completamente conectada, puede existir absolutamente ninguna
interrupción en las comunicaciones. Cada servidor tiene sus propias conexiones
con todos los demás servidores.
Ventajas
a) Es
posible llevar los mensajes de un nodo a otro por diferentes caminos.
b) No
puede existir absolutamente ninguna interrupción en las comunicaciones.
c) Cada
servidor tiene sus propias comunicaciones con todos los demás servidores.
d) Si
falla un cable el otro se hará cargo del trafico.
e) No
requiere un nodo o servidor central lo que reduce el mantenimiento.
f) Si
un nodo desaparece o falla no afecta en absoluto a los demás nodos.
g) Si
desaparece no afecta tanto a los nodos de redes.
Desventajas
a) El
costo de la red puede aumentar en los casos en los que se implemente de forma
alámbrica, la topología de red y las características de la misma implican el
uso de más recursos.
b) En
el caso de implementar una red en malla para atención de emergencias en
ciudades con densidad poblacional de más de 5000 habitantes por kilómetro
cuadrado, la disponibilidad del ancho de banda puede verse afectada por la
cantidad de usuarios que hacen uso de la red simultáneamente; para entregar un
ancho de banda que garantice la tasa de datos en demanda y, que en particular,
garantice las comunicaciones entre organismos de rescate, es necesario instalar
más puntos de acceso, por tanto, se incrementan los costos de implementación y
puesta en marcha.
Red en
topología de árbol
Topología de red en la que los nodos están
colocados en forma de árbol. Desde una visión topológica, la conexión en árbol
es parecida a una serie de redes en estrella interconectadas salvo en que no
tiene un nodo central. En cambio, tiene un nodo de enlace troncal, generalmente
ocupado por un hub o switch, desde el que se ramifican los demás nodos. Es una
variación de la red en bus, la falla de un nodo no implica interrupción en las
comunicaciones. Se comparte el mismo canal de comunicaciones.
La topología en árbol puede verse como una
combinación de varias topologías en estrella. Tanto la de árbol como la de
estrella son similares a la de bus cuando el nodo de interconexión trabaja en
modo difusión, pues la información se propaga hacia todas las estaciones, solo
que en esta topología las ramificaciones se extienden a partir de un punto raíz
(estrella), a tantas ramificaciones como sean posibles, según las
características del árbol.
Los problemas asociados a las topologías anteriores
radican en que los datos son recibidos por todas las estaciones sin importar
para quien vayan dirigidos. Es entonces necesario dotar a la red de un
mecanismo que permita identificar al destinatario de los mensajes, para que
estos puedan recogerlos a su arribo. Además, debido a la presencia de un medio
de transmisión compartido entre muchas estaciones, pueden producirse interferencia
entre las señales cuando dos o más estaciones transmiten al mismo tiempo.
Ventajas
1) Cableado
punto a punto para segmentos individuales.
2) Soportado
por multitud de vendedores de software y de hardware.
Desventajas
1) Se
requiere mucho cable.
2) La
medida de cada segmento viene determinada por el tipo de cable utilizado.
3) Si
se viene abajo el segmento principal todo el segmento se viene abajo con él.
4) Es
más difícil su configuración.
Las Redes de
topologías mixtas:
Son aquellas en las que se aplica una mezcla entre
alguna de las otras topologías: bus, estrella o anillo. Principalmente podemos
encontrar dos topologías mixtas: Estrella - Bus y Estrella - Anillo.
domingo, 11 de marzo de 2012
Red LAN y WAN
Una red de computadoras, también llamada red
de ordenadores, red de comunicaciones de datos o red informática, es un
conjunto de equipos informáticos y software conectados entre sí por medio de
dispositivos físicos que envían y reciben impulsos eléctricos, ondas
electromagnéticas o cualquier otro medio para el transporte de datos, con la
finalidad de compartir información, recursos y ofrecer servicios.
Ahora veamos de la definicion de los Tipos de Red:
LAN (Local Area Network): Una
red de área local, o red local, son redes de propiedad privada, de hasta unos
cuantos kilómetros de extensión. Por ejemplo una oficina o un centro educativo.
Se usan para conectar computadoras personales o estaciones de trabajo, con
objeto de compartir recursos e intercambiar información. Suelen emplear
tecnología de difusión mediante un cable sencillo al que están conectadas todas
las máquinas. Operan a velocidades entre 10 y 100 Mbps.
WAN (Wide Area Network): Una
Red de Área Amplia es un tipo de red de
computadoras capaz de cubrir distancias desde unos 100 hasta unos 1000 km,
proveyendo de servicio a un país o un continente. Son enlaces para grandes
distancias que amplían la LAN hasta convertirla en una red de área extensa
(WAN). Casi todos los operadores de redes nacionales (como DBP en Alemania o
British Telecom en Inglaterra) ofrecen servicios para interconectar redes de
computadoras.
Diferencias entre Red LAN y WAN:
Una de las diferencias entre redes LAN y WAN,
es la distancia que cubren estas redes. La LAN no supera los 100 metros, y la
WAN tiene una cobertura de entre 100 y 1000 kilómetros.
La segunda diferencia que nos encontramos
entre estas dos redes es la de la velocidad, donde la red LAN alcanza una
velocidad de transferencia de entre 1 Mbps hasta 4 Gbps y la red WAN de entre 1
Mbps y 1* Gbps.
La tercera diferecencia entre LAN y WAN tiene
que ver con las siglas CMT (Comisión del Mercado de las Telecomunicaciones). El
CMT es un comité que se encarga de controlar el buen funcionamiento de la red
WAN, la cual al ser tan grande, necesita estar controlada continuamente. En
cambio la red LAN no necesita el control de este comité porque al ser más
pequeña su cobertura es más fácil de controlar.
jueves, 8 de marzo de 2012
Facebook lanza Timeline para páginas de empresas
Tal como se había rumoreado hace algunos días, Timeline ya está disponible para Pages – es decir, las páginas de empresas. Se ven exactamente igual como el Timeline de personas comunes y corrientes, pero entregan algunas opciones extra para los administradores.
El Timeline integra fotos más grandes y muestra “hitos”, que son los equivalentes corporativos de los eventos de la vida que aparecen en el Timeline personal.
Las fotos más grandes debieran inspirar a los usuarios a navegar más tiempo por las páginas corporativas, y la nueva disposición de los elementos posiblemente inspire nuevas formas de interacción por parte de las empresas. El nuevo Timeline para Pages se puede instalar a partir de hoy, aunque también existe la opción de dejar la página en modo de prueba por 30 días. Se espera que este Timeline se vuelva obligatorio a partir del 30 de marzo.
Facebook también publicó un video explicativo sobre cómo funciona. Las APIs que se hayan implementado en la página seguirán funcionando como hasta ahora.
Timeline no está disponible todavía en móviles. Puedes revisar nuestro nuevo Page aquí.
viernes, 2 de marzo de 2012
Tableta
Una tableta (del inglés: tablet o tablet computer) es un tipo de
computadora portátil, de mayor tamaño que un Smartphone o una PDA, integrado en
una pantalla táctil (sencilla o multitáctil) con la que se interactúa primariamente
con los dedos o una pluma stylus (pasiva o activa), sin necesidad de teclado
físico ni ratón. Estos últimos se ven reemplazados por un teclado virtual y, en
determinados modelos, por una mini-trackball integrada en uno de los bordes de
la pantalla.
Origen
Los primeros ejemplos del
concepto tableta de información se originaron en los siglos 19 y 20,
principalmente como prototipos e ideas conceptuales, de los cuales el más
prominente fue el Dynabook de Alan Kay en 1972. Los primeros dispositivos
electrónicos portátiles basados en el concepto aparecieron a finales del
siglo 20. Finalmente en 2010 Apple Inc. presenta el iPad, basado en su
exitoso iPhone, alcanzando el éxito comercial al proveer por fin de la interfaz
adecuada.
Hoy en día las tabletas
utilizan un sistema operativo diseñado con la movilidad en mente (iOS, Android
y el minoritario Symbian provienen del campo Smartphone, donde se reparten el
mercado; MeeGo y HP webOS provienen del mundo PDA).
Evolución
GRIDPAD: La primera Tablet del mercado, creada en 1982 y lanzada en
1989.Pesaba 2 Kl, media 29,2 x 23,6 x 3,7 cm, el procesador era de 386 de 20 MHz
TABLET PC: Fue creada equipados con pantallas sensibles al tacto que rodaban
una versión modificada del Windows XP en 2001 por Microsoft, preparada para
operar con bolígrafo.
NOKIA 770 (2005): Peso: 230g,
Dimensiones: 141 x 79 x 19mm, mismo software de 2005 acceso SIM,
características similares a la tablet PC anterior (ORIGAMI)
ORIGAMI (2006): Pantalla de 7 pulgadas Pantalla táctil integrada, WiFi y Bluetooth
integrados, posibilidad de añadir módulos de GPS, televisión digital.
IPAD (2010): Alto: 24.12cm,
Ancho 18.57cm, Fondo: 0.88cm, Peso: 601g, capacidad de 16-32-64 Gb, procesador
doble núcleo a 1GHz cámara frontal y cámara trasera con grabación de vídeo HD
(720p) de hasta 30 fotogramas por segundo.
Tipos
Un tablet PC convertible normalmente tiene una pantalla que gira 180
grados y se puede plegar para cerrar, la pantalla hacia arriba, sobre el
teclado integrado. Los modelos convertibles pueden permitir la entrada del
usuario a través de una variedad de métodos, además del teclado de hardware,
incluyendo escritura a mano con un lápiz óptico o digital y escribir a través
de un teclado de software basado en la pantalla.
Un tablet PC de pizarra, como un iPad, tiene
electrónica integrada en la unidad de pantalla táctil y carece de un teclado de
hardware. Sin embargo, teclados externos están disponibles para tablillas de
pizarra, algunas de las cuales funcionan como muelles para los dispositivos.
Un tablet PC híbrido, a veces referido como un
portátil con vertible o híbrida, es como un portátil normal, pero con una
pantalla removible que funciona de forma independiente como una pizarra.
Un tablet PC resistente, es un modelo
de pizarra, como que está diseñado para soportar el manejo rudo y condiciones
extremas. Tabletas son robustos envuelta casi siempre en una capa protectora y
se han protegido contra impactos unidades de disco duro.
Característica
- Peso, dimensiones, diseño y calidad de sus materiales.
- Tamaño de la pantalla y su capacidad de respuesta al toque, así como su resolución y luminosidad.
- Capacidad de almacenamiento y memoria RAM, tipos de conectores y puertos, sensores específicos, la conectividad WiFi - 3G/4G a Internet o entre dispositivos con Bluetooth, duración de la batería, etc.…
- Los elementos que componen las funciones de sonido, tanto entrada (micrófono) como salida (altavoces) o las de imagen con su cámara para la grabación de vídeo y fotografía.
- El procesador. Este es su motor y cerebro, se debe prestar especial atención porque es quien determina su velocidad, rendimiento y consumo.
- El Sistema Operativo. Este puede ser independiente al fabricante del dispositvo como es el caso de Android y Windows, o por el contrario provenir del mismo fabricante del aparato como sucede en los dispositivos Tablets de Apple y de RIM, más conocido como BlackBerry.
- Debemos saber que el tipo de Sistema Operativo condiciona la facilidad de uso así como el número y la calidad de las aplicaciones que tendremos disponibles para utilizarlas en nuestro dispositivo.
Las 5 Mejores Marcas
2) Motorola (Motorola XOOM)
3) BlackBerry (BlackBerry PlayBook)
4) HP (HP PalmPad)
Suscribirse a:
Entradas (Atom)