miércoles, 11 de abril de 2012
ASUS presentará nuevo servicio de almacenamiento en la nube de Internet
ASUS es una compañía fabricante de hardware o piezas para PC y además ensambla equipos propios como notebooks y Ultrabooks, siendo un gran protagonista de la industria tecnológica. Ahora, moverán su reino hacia el área de Internet para estrenar un servicio de almacenamiento de datos en la nube, el cual se encontrará con grandes competidores que están probando suerte en este rubro y vendrá a renovar a la existente ASUS Webstorage, que es bastante limitada.
Porque según Jonney Shih, Presidente de ASUS, revelarán una solución que espera abarcar toda gama de productos informáticos para sincronizar información entre ellos, estrenando su proyecto en el marco del evento Computex 2012 a realizarse en Taipei entre el 5 y 9 de junio. La idea es presentar un servicio “total” y “omnipresente”, según afirman.
Pero esta iniciativa seguramente será muy parecida a lo que hizo Acer hace tres meses con la AcerCloud, compitiendo a la vez con rivales consagrados como SkyDrive de Microsoft, iCloud de Apple o Dropbox. Ya veremos si traen algo innovador entre manos o se viene otro fracaso.
Link: http://news.softpedia.com/news/ASUS-Prepares-Total-Cloud-Computing-for-Computex-264035.shtml
Google Art nos abre las puertas a 151 museos de 41 países del mundo
Google Art Project nos sigue facilitando la entrada gratuita a museos a través de la Red: En su última gran aportación incluye museos de Colombia, Argentina, México, Brasil, Perú y España.
El Centro Nacional Museo de Arte Reina Sofía por ejemplo, formaba ya parte de este servicio de Google del que os informamos cuando el proyecto empezó con 17 galerías y 1.061 obras. Ahora se sumaron 10 museos latinoamericanos con más de 1.200 obras: el Museo Nacional de Bellas Artes (Argentina), el Museo de Arte Moderno de Sao Paulo (Brasil), la Pinacoteca del Estado de Sao Paulo (Brasil), el Museo Botero (Colombia), el Museo del Oro (Colombia), el Museo Nacional de Antropología (México), el Museo Nacional de Arte (México), el Museo Dolores Olmedo (México), el Museo Frida Kahlo (México) y el Museo de Arte de Lima (Perú).
En Google Art hay más de 30.000 obras de arte que forman parte de las colecciones de sus 151 socios repartidos por 40 países: La calidad de las imágenes es tan buena que en el caso de las pinturas, al ampliarlas se distinguen las pinceladas. Ahora también se pueden ver la icónica Piedra del Sol en México, pasando por la Mona Lisa del Museo Botero y el Retrato de Manuelita Rosa del argentino Prilidiano Pueyrredón, hasta el arte precolombino peruano y el arte callejero de los hermanos Osgemeos de Brasil.
Ahora la pregunta del millón: ¿Cómo buscamos una obra? Pues bien puedes hacerlo por nombre del artista, por el nombre de la obra, por tipo de arte, por museo, país, época o colecciones. Incluso entre las nuevas novedades, podemos formar nuestra propia colección con las obras que más nos gusten, añadiendo texto, con vídeos… y luego compartirla en las redes sociales o por email. Un buen recurso para profesores.
En un principio no podemos comparar el ambiente mágico de un museo, rodeados de obras que podemos ver “cara a cara”, con sus imágenes a través de la web. Pero lo que nos ofrece Google Art es la posibilidad de analizar cada detalle de una obra.
En muchos centros de arte está prohibido hacer fotos y en el caso de que se pueda, las obras están protegidas por cristales, no nos podemos acercar tanto a ellas o la luz es mala para fotos. A través de Google Art se distingue con toda claridad al ampliar la imagen, los trazos de la firma de un artista en un jarrón, por ejemplo.
Para los profesores y estudiantes de todo el mundo es una oportunidad para conocer colecciones completas sin la discriminación de las editoriales de libros de arte que eligen en sus publicaciones de cuáles obras hablar y de cuáles no.
Para los comunes mortales, tenemos la posibilidad de “pasear” por museos en los que a lo mejor no pondremos jamás el pie. Y al revés, igual después de ver sus colecciones, nos interesan tanto que decidimos visitarlos físicamente. ¡La magia de la Red al servicio del arte y el conocimiento!
http://www.youtube.com/watch?v=4ZdCByYeNRU&feature=player_embedded
http://www.youtube.com/watch?v=qVpqTd2ndYY&feature=player_embedded
Link:
http://www.diarioinformacion.com/cultura/2012/04/03/google-incorpora-cinco-nuevos-museos/1239942.html?utm_source=rss
http://tecnologiayproductosgoogle.blogspot.mx/2012/04/acercando-el-arte-mas-personas.html
jueves, 5 de abril de 2012
Seguridad Informática
¿Porque es importante la seguridad en los sistemas
informativos computacionales?
Porque estas son
medidas preventivas para reguadar información y nos permiten tenerla más segura
de cualquier robo, plagio o información secreta la cual no puede ser vista por personal
no autorizado.
Esta privacidad seria
como una caja fuerte la cual tiene información y solo nosotros tenemos la clave,
al menos que le queramos dar acceso a otra persona deseada.
Criptografía (Cifrado de datos), se ocupa del cifrado de mensajes un mensaje es
enviado por el emisor lo que hace es transposicionar o ocultar el mensaje hasta
que llega a su destino y puede ser descifrado por el receptor.
Lógica (Estructura
y secuencia). Llevar un orden en el cual se agrupan los datos del mensaje el
significado del mensaje y saber cuándo se va enviar el mensaje.
Autenticación. Es una validación de identificación es la técnica
mediante la cual un proceso comprueba que el compañero de comunicación es quien
se supone que es y no se trata de un impostor.
¿Recomendaciones para tener una clave segura?
Que la contraseña
este escrita con 8 o más caracteres los cuales tengan letras en mayúscula y en minúscula,
que contengan números y signos. Haci sele ara mucho mas difícil acceder de forma
ilegal a cualquier persona no autorizada.
¿Recomendaciones de seguridad para que no sea robada
tu clave?
Consejo 1: Nunca digas tus contraseñas, ni la respuesta de tu pregunta secreta a
tus compañeros, amigos, novio(a), familiares.
Consejo 2: No seas tan obvio en tu contraseña, por ejemplo no pongas tu fecha de nacimiento, tu nombre o
apellido, trata de poner algo que nadie sepa.
Consejo 3: Si generalmente compartes la maquina con alguien más para entrar a
revisar tu mail, no dejes activadas las opciones de entrar automáticamente o la
de recordar mis datos y más si vas a un cyber.
Consejo 4: Revisa en la mayoría de lo posible que la maquina tenga un antivirus
actualizado.
Consejo 5: No des clic a lo loco en las páginas que te presente algo bonito
¿Lista de programas para instalar sistemas de
seguridad?
MYonlyusb
Avast
Kaperskin
PC Tools Firewall
Plus 7.0.0.123
viernes, 30 de marzo de 2012
Modelo OSI
Modelo OSI
El modelo de interconexión de sistemas abiertos, también llamado OSI (en inglés open system interconnection) es el modelo de red descriptivo creado por la Organización Internacional para la Estandarización en el año 1984. Es decir, es un marco de referencia para la definición de arquitecturas de interconexión de sistemas de comunicaciones.
Fue desarrollado en 1984 por la Organización Internacional de Estándares (ISO), una federación global de organizaciones que representa aproximadamente a 130 países. El núcleo de este estándar es el modelo de referencia OSI, una normativa formada por siete capas que define las diferentes fases por las que deben pasar los datos para viajar de un dispositivo a otro sobre una red de comunicaciones.
Siguiendo el esquema de este modelo se crearon numerosos protocolos. El advenimiento de protocolos más flexibles donde las capas no están tan desmarcadas y la correspondencia con los niveles no era tan clara puso a este esquema en un segundo plano. Sin embargo es muy usado en la enseñanza como una manera de mostrar cómo puede estructurarse una "pila" de protocolos de comunicaciones.
El modelo especifica el protocolo que debe ser usado en cada capa, y suele hablarse de modelo de referencia ya que es usado como una gran herramienta para la enseñanza de comunicación de redes.
Se trata de una normativa estandarizada útil debido a la existencia de muchas tecnologías, fabricantes y compañías dentro del mundo de las comunicaciones, y al estar en continua expansión, se tuvo que crear un método para que todos pudieran entenderse de algún modo, incluso cuando las tecnologías no coincidieran. De este modo, no importa la localización geográfica o el lenguaje utilizado. Todo el mundo debe atenerse a unas normas mínimas para poder comunicarse entre sí. Esto es sobre todo importante cuando hablamos de la red de redes, es decir, Internet.
Capa física
Es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico como a la forma en la que se transmite la información.
Sus principales funciones se pueden resumir como:
Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
Transmitir el flujo de bits a través del medio.
Manejar las señales eléctricas del medio de transmisión, polos en un enchufe, etc.
Garantizar la conexión (aunque no la fiabilidad de dicha conexión)
Capa de enlace de datos
Esta capa se ocupa del direccionamiento físico, de la topología de la red, del acceso al medio, de la detección de errores, de la distribución ordenada de tramas y del control del flujo.
Por lo cual es uno de los aspectos más importantes a revisar en el momento de conectar dos ordenadores, ya que está entre la capa 1 y 3 como parte esencial para la creación de sus protocolos básicos (MAC, IP), para regular la forma de la conexión entre computadoras asi determinando el paso de tramas (trama = unidad de medida de la información en esta capa, que no es más que la segmentación de los datos trasladándolos por medio de paquetes), verificando su integridad, y corrigiendo errores, por lo cual es importante mantener una excelente adecuación al medio físico (los más usados son el cable UTP, par trenzado o de 8 hilos), con el medio de red que redirecciona las conexiones mediante un router. Dadas estas situaciones cabe recalcar que el dispositivo que usa la capa de enlace es el Switch que se encarga de recibir los datos del router y enviar cada uno de estos a sus respectivos destinatarios (servidor -> computador cliente o algún otro dispositivo que reciba información como celulares, etc.), dada esta situación se determina como el medio que se encarga de la corrección de errores, manejo de tramas, protocolización de datos (se llaman protocolos a las reglas que debe seguir cualquier capa del modelol OSI).
Capa de red
Se encarga de identificar el enrutamiento existente entre una o más redes. Las unidades de información se denominan paquetes, y se pueden clasificar en protocolos enrutables y protocolos de enrutamiento.
Enrutables: viajan con los paquetes (IP, IPX, APPLETALK)
Enrutamiento: permiten seleccionar las rutas (RIP,IGRP,EIGRP,OSPF,BGP)
El objetivo de la capa de red es hacer que los datos lleguen desde el origen al destino, aún cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominanencaminadores, aunque es más frecuente encontrarlo con el nombre en inglés routers. Los routers trabajan en esta capa, aunque pueden actuar como switch de nivel 2 en determinados casos, dependiendo de la función que se le asigne. Los firewalls actúan sobre esta capa principalmente, para descartar direcciones de máquinas.
En este nivel se realiza el direccionamiento lógico y la determinación de la ruta de los datos hasta su receptor final.
Capa de transporte
Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la de destino, independizándolo del tipo de red física que se esté utilizando. LaPDU de la capa 4 se llama Segmento o Datagrama, dependiendo de si corresponde a TCP o UDP. Sus protocolos son TCP y UDP; el primero orientado a conexión y el otro sin conexión. Trabajan, por lo tanto, con puertos lógicos y junto con la capa red dan forma a los conocidos como Sockets IP:Puerto (191.16.200.54:80).
Capa de sesión
Esta capa es la que se encarga de mantener y controlar el enlace establecido entre dos computadores que están transmitiendo datos de cualquier índole. Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcial o totalmente prescindibles.
Capa de presentación
El objetivo es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres los datos lleguen de manera reconocible.
Esta capa es la primera en trabajar más el contenido de la comunicación que el cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.
Esta capa también permite cifrar los datos y comprimirlos. Por lo tanto, podría decirse que esta capa actúa como un traductor.
Capa de aplicación
Ofrece a las aplicaciones la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (Post Office Protocol y SMTP), gestores de bases de datos y servidor de ficheros (FTP), por UDP pueden viajar (DNS y Routing Information Protocol). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.
Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente.
jueves, 29 de marzo de 2012
Aterrador: Mono controla mano robótica por medio de implantes cerebrales
De no ser por la cortina de censura que cae sobre el gigante asiático, quizás la universidad china de Zhejiang podría ser considerada como el MIT de Asia. Hace pocos días informaron que lograron implantar sensores en el córtex motriz cerebral de un mono con el objetivo de que el animal lograra mover una mano robótica con su cerebro.
Sin dudas la noticia parece sacada de una película futurista, pero de esas bien densas y oscuras ya que estremece no sólo ver al animal atrapado y sólo con la posibilidad de poder reaccionar con su cerebro (como se puede apreciar en este video), sino también ver cómo esa mano robótica se mueve sólo porque recibieron la respuesta motriz directamente de la neurona conectada por los científicos.
Según informaron los investigadores chinos, este experimento logró capturar y descifrar señales cerebrales del mono y traducirlas al movimiento indicado de los dedos de la interfaz conectada. Los dos sensores implantados en el cerebro del mono, de nombre Jianhui, sólo monitorean 200 neuronas del córtex motriz, lo que indica que las posibilidades de expansión de este proyecto son infinitas.
Luego de este primer paso, el objetivo a lograr es desarrollar movimientos cada vez más finos y precisos en los dedos de la prótesis. La investigadora Zheng Xiaoxiang comentó al respecto que “los movimientos de las manos están asociados con al menos varios cientos de neuronas. Ahora hemos descifrado los movimientos basados en 200 neuronas. Y claro, las órdenes que produjimos todavía están distantes en complejidad y fineza de los movimientos de los dedos verdaderamente flexibles”.
Si acaso la pareja de robots jugadores de ping pong chinos les parecieron un avance tecnológico relevante en los proyectos de robótica salidos de Zhejiang, imaginamos que este mono podría ser en breve el futuro Charles Xavier del gigante de Asia.
Link: http://pijamasurf.com/2012/02/mono-controla-mano-robotica-por-medio-de-implantes-cerebrales/
La Web
Es un sistema de distribución de información basado en hipertexto o hipermedios enlazados y accesibles a través de Internet. Con un navegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener texto, imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.
La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee con la ayuda del belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas web), y en los últimos años ha abogado por su visión de una Web semántica.
La 'Web 1.0 (1991-2003) es la forma más básica que existe, con navegadores de sólo texto bastante rápidos. Después surgió el HTML que hizo las páginas web más agradables a la vista, así como los primeros navegadores visuales tales como IE, Netscape,explorer (en versiones antiguas), etc.
La Web 1.0 es de sólo lectura. El usuario no puede interactuar con el contenido de la página (nada de comentarios, respuestas, citas, etc), estando totalmente limitado a lo que el Webmaster sube a ésta.
Web 1.0 se refiere a un estado de la World Wide Web, y cualquier página web diseñada con un estilo anterior del fenómeno de la Web 2.0. Es en general un término que ha sido creado para describir la Web antes del impacto de la fiebre punto com en el 2001, que es visto por muchos como el momento en que el internet dio un giro
Es la forma más fácil en el sentido del término Web 1.0 cuando es usada en relación a término Web 2.0, para comparar los dos y mostrar ejemplos de cada uno.
Diseño de elementos en la Web 1.0 Algunos elementos de diseño típicos de un sitio Web 1.0 incluyen:
- Páginas estáticas en vez de dinámicas por el usuario que la visita
- El uso de framesets o Marcos.
- Extensiones propias del HTML como el parpadeo y las marquesinas, etiquetas introducidas durante la guerra de navegadores web.
- Libros de visitas online o guestbooks
- botonesGIF, casi siempre a una resolución típica de 88x31 pixels en tamaño promocionando navegadores web u otros productos.
- formularios HTML enviados vía email. Un usuario llenaba un formulario y después de hacer clic se enviaba a través de un cliente de correo electrónico, con el problema que en el código se podía observar los detalles del envío del correo electrónico.
El término Web 2.0 está asociado a aplicaciones web que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario1 y la colaboración en la World Wide Web. Un sitio Web 2.0 permite a los usuarios interactuar y colaborar entre sí como creadores de contenido generado por usuarios en una comunidad virtual, a diferencia de sitios web donde los usuarios se limitan a la observación pasiva de los contenidos que se ha creado para ellos. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogs, mashups y folcsonomías.
El término Web 2.0 está asociado estrechamente con Tim O'Reilly, debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004.2 Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee, quien calificó al término como "tan sólo una jerga"- precisamente porque tenía la intención de que la Web incorporase estos valores en el primer lugar.
Se puede decir que una web está construida usando tecnología de la Web 2.0 si se caracteriza por las siguientes técnicas:
Técnicas:
CSS, marcado XHTML válido semánticamente y Microformatos
Técnicas de aplicaciones ricas no intrusivas (como AJAX)
Java Web Start
Redifusión/Agregación de datos en RSS/ATOM
URLs sencillas con significado semántico
Soporte para postear en un blog
JCC y APIs REST o XML
JSON
Algunos aspectos de redes sociales
Mashup (aplicación web híbrida)
General:
El sitio debe estar listo para la entrada de cualquier persona
El sitio no debe actuar como un "jardín cerrado": la información debe poderse introducir y extraer fácilmente
Los usuarios deberían controlar su propia información
Basada exclusivamente en la Web: los sitios Web 2.0 con más éxito pueden ser utilizados enteramente desde un navegador
La existencia de links es requisito imprescindible
jueves, 22 de marzo de 2012
México: Se construyen las instalaciones para la supercomputadora ABACUS
En la región boscosa de La Escondida, Estado de México, se construyen las instalaciones donde estará alojada la supercomputadora ABACUS, la cual servirá para buscar soluciones a diferentes problemas de la ciencia y tecnología de México. Es desarrollado por el Consejo Mexiquense de Ciencia y Tecnología (Comecyt) y el Centro de Investigación v de Estudios Avanzados del Instituto Politécnico Nacional (Cinvestav).
El proyecto se basó en el modelo del Barcelona Supercomputing Centre (BSC) y también es apoyado por la empresa MATHEON de Alemania por medio de una alianza estratégica. La inversión inicial del proyecto asciende a MXN$130 millones, por lo que ABACUS se convertirá en la supercomputadora más grande de México y en el proyecto más ambicioso que se ha llevado a cabo en nuestro país en más de 30 años.
En cuanto a las especificaciones técnicas, ABACUS contará con 400 Terabytes (Tb) de espacio en disco, una memoria RAM de 24 Tb y alcanzaría los 20 mil núcleos con una capacidad de procesamiento de 250 Teraflops.
ABACUS desarrollará matemáticas de punta, elaborará modelos y soluciones a problemas que tengan un fuerte impacto económico y social relacionados con la salud, la energía, el medio ambiente, la predicción del clima, transporte y hasta el sector industrial.
Por ejemplo, la máquina podría ser auxiliar en el desarrollo de nuevos medicamentos y procedimientos quirúrgicos; también en la secuenciación genómica, el estudio de contaminación por gases, análisis del subsuelo, terremotos, extracción petrolera, finanzas, mercados económicos, industria aeronáutica y automotriz, nanotecnología y problemas del transporte.
También jugará un papel importante en la formación de científicos de alto nivel que podrán interactuar con otros expertos en situaciones reales que buscan un alto desempeño en sus capacidades. Se estima que las obras terminarán dentro de 18 meses, por lo que se podrá adquirir el equipo para su instalación.
Link: http://www.eluniversaledomex.mx/otros/nota27805.html
lunes, 19 de marzo de 2012
Los Antivirus
Es un programa creado para prevenir o evitar la activación de los virus, así como su propagación y contagio. Cuenta además con rutinas de detención, eliminación y reconstrucción de los archivos y las áreas infectadas del sistema.
Un antivirus tiene tres principales funciones y componentes:
VACUNA es un programa que instalado residente en la memoria, actúa como "filtro" de los programas que son ejecutados, abiertos para ser leídos o copiados, en tiempo real.
DETECTOR, que es el programa que examina todos los archivos existentes en el disco o a los que se les indique en una determinada ruta o PATH. Tiene instrucciones de control y reconocimiento exacto de los códigos virales que permiten capturar sus pares, debidamente registrados y en forma sumamente rápida desarman su estructura.
ELIMINADOR es el programa que una vez desactivada la estructura del virus procede a eliminarlo e inmediatamente después a reparar o reconstruir los archivos y áreas afectadas.
Es importante aclarar que todo antivirus es un programa y que, como todo programa, sólo funcionará correctamente si es adecuado y está bien configurado. Además, un antivirus es una herramienta para el usuario y no sólo no será eficaz para el 100% de los casos, sino que nunca será una protección total ni definitiva.
La función de un programa antivirus es detectar, de alguna manera, la presencia o el accionar de un virus informático en una computadora. Este es el aspecto más importante de un antivirus, independientemente de las prestaciones adicionales que pueda ofrecer, puesto que el hecho de detectar la posible presencia de un virus informático, detener el trabajo y tomar las medidas necesarias, es suficiente para acotar un buen porcentaje de los daños posibles. Adicionalmente, un antivirus puede dar la opción de erradicar un virus informático de una entidad infectada.
El modelo más primario de las funciones de un programa antivirus es la detección de su presencia y, en lo posible, su identificación. La primera técnica que se popularizó para la detección de virus informáticos, y que todavía se sigue utilizando (aunque cada vez con menos eficiencia), es la técnica de scanning. Esta técnica consiste en revisar el código de todos los archivos contenidos en la unidad de almacenamiento -fundamentalmente los archivos ejecutables- en busca de pequeñas porciones de código que puedan pertenecer a un virus informático. Este procedimiento, denominado escaneo, se realiza a partir de una base de datos que contiene trozos de código representativos de cada virus conocido, agregando el empleo de determinados algoritmos que agilizan los procesos de búsqueda.
La técnica de scanning fue bastante eficaz en los primeros tiempos de los virus informáticos, cuando había pocos y su producción era pequeña. Este relativamente pequeño volumen de virus informáticos permitía que los desarrolladores de antivirus escaneadores tuvieran tiempo de analizar el virus, extraer el pequeño trozo de código que lo iba a identificar y agregarlo a la base de datos del programa para lanzar una nueva versión. Sin embargo, la obsolescencia de este mecanismo de identificación como una solución antivirus completa se encontró en su mismo modelo.
El primer punto grave de este sistema radica en que siempre brinda una solución a posteriori: es necesario que un virus informático alcance un grado de dispersión considerable para que sea enviado (por usuarios capacitados, especialistas o distribuidores del producto) a los desarrolladores de antivirus. Estos lo analizarán, extraerán el trozo de código que lo identificará, y lo incluirán en la próxima versión de su programa antivirus. Este proceso puede demorar meses a partir del momento en que el virus comienza a tener una dispersión considerable, lapso en el cual puede causar graves daños sin que pueda ser identificado.
Además, este modelo consiste en una sucesión infinita de soluciones parciales y momentáneas (cuya sumatoria jamás constituirá una solución definitiva), que deben actualizarse periódicamente debido a la aparición de nuevos virus.
En síntesis, la técnica de scanning es altamente ineficiente, pero se sigue utilizando debido a que permite identificar rápidamente la presencia de los virus más conocidos y, como son estos los de mayor dispersión, permite una importante gama de posibilidades. Un ejemplo típico de un antivirus de esta clase es el Viruscan de McAfee.
En virtud del pronto agotamiento técnico de la técnica de scanning, los desarrolladores de programas antivirus han dotado a sus creaciones de métodos para búsquedas de virus informáticos (y de sus actividades), que no identifican específicamente al virus sino a algunas de sus características generales y comportamientos universalizados.
Este tipo de método rastrea rutinas de alteración de información que no puedan ser controladas por el usuario, modificación de sectores críticos de las unidades de almacenamiento (master boot record, boot sector, FAT, entre otras), etc. Un ejemplo de este tipo de métodos es el que utiliza algoritmos heurísticos.
De hecho, esta naturaleza de procedimientos busca, de manera bastante eficiente, códigos de instrucciones potencialmente pertenecientes a un virus informático. Resulta eficaz para la detección de virus conocidos y es una de las soluciones utilizadas por los antivirus para la detección de nuevos virus. El inconveniente que presenta este tipo de algoritmo radica en que puede llegar a sospecharse de muchisimas cosas que no son virus. Esto hace necesario que el usuario que lo utiliza conozca un poco acerca de la estructura del sistema operativo, a fin de poseer herramientas que le faciliten una discriminación de cualquier falsa alarma generada por un método heurístico.
Algunos de los antivirus de esta clase son: F-Prot, Norton Anti Virus y Dr. Solomon's Toolkit. Ahora bien, otra forma de detectar la presencia de un virus informático en un sistema consiste en monitorear las actividades de la PC señalando si algún proceso intenta modificar los sectores críticos de los dispositivos de almacenamiento o los archivos ejecutables. Los programas que realizan esta tarea se denominan chequeadores de integridad. Sobre la base de estas consideraciones, podemos consignar que un buen sistema antivirus debe estar compuesto por un programa detector de virus, que siempre esté residente en memoria y un programa que verifique la integridad de los sectores críticos del disco rígido y sus archivos ejecutables. Existen productos antivirus que cubren los dos aspectos, o bien pueden combinarse productos diferentes configurados de forma que no se produzcan conflictos entre ellos.
jueves, 15 de marzo de 2012
Protocolo de Internet
Protocolo
Un protocolo es un conjunto de reglas usadas por computadoras para comunicarse unas con otras a través de una red por medio de intercambio de mensajes. Éste es una regla o estándar que controla o permite la comunicación en su forma más simple, puede ser definido como las reglas que dominan la sintaxis, semántica y sincronización de la comunicación. Los protocolos pueden ser implementados por hardware, software, o una combinación de ambos.
Protocolo de Internet
Un Protocolo de Internet es un conjunto de reglas técnicas que define cómo las computadoras se comunican dentro de una red. Actualmente, hay dos versiones: IP versión 4 (IPv4) e IP versión 6 (IPv6).
Internet Protocol Versión 4 (IPv4)
Es la cuarta versión del protocolo Internet Protocol (IP), y la primera en ser implementada a gran escala. IPv4 usa direcciones de 32 bits, limitándola a 4.294.967.296 direcciones únicas, muchas de las cuales están dedicadas a redes locales (LAN)
Internet Protocol Versión 6 (IPv6)
Es un protocolo de 128bits, lo que hace que el algunos cálculos sitúen el número de conexiones posibles en aproximadamente 34 trillones. IPv6 es el reemplazo de IPv4. Se lanzó en 1999 y soporta muchas más direcciones IP que deberían resultar suficientes para satisfacer las necesidades futuras.
Diferencia entre IPv4 e IPv6
La principal diferencia entre IPv4 e IPv6 es la cantidad de direcciones IP. Existen algo más de 4.000 millones de direcciones IPv4. En cambio, existen más de 16 trillones de direcciones IPv6. El funcionamiento técnico de Internet es el mismo en ambas versiones y es probable que ambas continúen funcionando simultáneamente en las redes por mucho tiempo más. En la actualidad, la mayoría de las redes que usan IPv6 soportan tanto las direcciones IPv4 como las IPv6 en sus redes.
miércoles, 14 de marzo de 2012
Windows 8 para ARM no integrará funciones para empresas
Windows es un sistema operativo ampliamente usado por las empresas, y las versiones destinadas a este tipo de usuarios incluyen normalmente una serie de configuraciones extra que le permiten a la compañía controlar mejor su información. Pues bien, estas configuraciones no existirán en la versión ARM de Windows 8, al menos por ahora, según reveló la propia Microsoft en una guía de uso para empresas.
“Aunque la versión para ARM de Windows no incluye las mismas opciones de administración que las versiones de 32 y 64 bits, las empresas pueden usar estos dispositivos que ahorran energía en ambientes no controlados”, señala el documento. Esto significa que los equipos ARM no podrán ser agregados a la lista de Active Directories, ni sus usuarios podrán ser controlados por administradores, ni que se podrán controlar de forma remota. En definitiva esto podría hacer menos atractivo a Windows 8 – al menos en el terreno móvil – para las empresas.
Las versiones de 32 y 64 bit integrarán los sistemas existentes de administración de usuarios, usando las mismas herramientas de configuración, seguridad y otros temas que ya existen en Windows 7. Como alternativa en el terreno móvil, Microsoft presentó brevemente “Windows to Go”, que permite usar un disco USB para iniciar un PC desde una imagen aprobada por la empresa, que permite al usuario conectarse a la red de la compañía de forma remota desde un sistema no reconocido, sin dar al mismo tiempo acceso al sistema operativo a la red.
Windows to Go será presentado en mayor detalle en CeBIT próximamente. Aunque puede ser una buena solución para empleados que trabajan desde su casa o en oficinas compartidas, incluir las funciones de administración en ARM podría haberle dado una gran ventaja a Microsoft. Actualmente existen programas para realizar estas gestiones que se descargan como aplicación en iOS, Blackberry y Android, y que permiten funcionar a esos dispositivos en ambientes más controlados.
Link: http://arstechnica.com/microsoft/news/2012/02/windows-8-for-arm-will-lack-enterprise-management-features.ars?utm_source=rss&utm_medium=rss&utm_campaign=rss
martes, 13 de marzo de 2012
Topologia de Red
La topología de red se define como la cadena de
comunicación usada por los modos que conforman una red para comunicarse.
Clasificación de la Redes
Red
Point-To-Point: es aquella en la que existe multitud de conexiones entre
parejas individuales de máquinas. Este tipo de red requiere, en algunos casos,
máquinas intermedias que establezcan rutas para que puedan transmitirse
paquetes de datos. El medio electrónico habitual para la interconexión es el
conmutador, o switch.
Red
broadcast: se caracteriza por transmitir datos por un sólo canal de
comunicación que comparten todas las máquinas de la red. En este caso, el
paquete enviado es recibido por todas las máquinas de la red pero únicamente la
destinataria puede procesarlo. Los equipos unidos por un concentrador, o hub,
forman redes de este tipo.
Por Topología Física
Red en topología de bus:
Red cuya topología se caracteriza por tener un
único canal de comunicaciones (denominado bus, troncal o backbone) al cual se
conectan los diferentes dispositivos. De esta forma todos los dispositivos
comparten el mismo canal para comunicarse entre sí.
Ventajas
a) Facilidad
de implementación y crecimiento.
b) Simplicidad
en la arquitectura.
Desventajas
1) Hay
un límite de equipos dependiendo de la calidad de la señal.
2) Puede
producirse degradación de la señal.
3) Complejidad
de reconfiguración y aislamiento de fallos.
4) Limitación
de las longitudes físicas del canal.
5) Un
problema en el canal usualmente degrada toda la red.
6) El
desempeño se disminuye a medida que la red crece.
7) El
canal requiere ser correctamente cerrado (caminos cerrados).
8) Altas
pérdidas en la transmisión debido a colisiones entre mensajes.
9) Es
una red que ocupa mucho espacio
Red con
topología de anillo:
Topología de red en la que cada estación está
conectada a la siguiente y la última está conectada a la primera. Cada estación
tiene un receptor y un transmisor que hace la función de repetidor, pasando la
señal a la siguiente estación.
En este tipo de red la comunicación se da por el
paso de un token o testigo, que se puede conceptualizar como un cartero que
pasa recogiendo y entregando paquetes de información, de esta manera se evitan
eventuales pérdidas de información debidas a colisiones.
En un anillo doble (Token Ring), dos anillos
permiten que los datos se envíen en ambas direcciones (Token passing). Esta
configuración crea redundancia (tolerancia a fallos). Evita las colisiones.
Ventajas
a) El
sistema provee un acceso equitativo para todas las computadoras.
b) El
rendimiento no decae cuando muchos usuarios utilizan la red.
c) Arquitectura
muy sólida.
d) Raramente
entra en conflictos con usuarios.
Desventajas
a) Longitudes
de canales
b) El
canal usualmente se degradará a medida que la red crece.
c) Difícil
de diagnosticar y reparar los problemas.
d) Si
una estación o el canal falla, las restantes quedan incomunicadas (Circuito
unidireccional).
Una red en
estrella
Es una red en la cual las estaciones están
conectadas directamente a un punto central y todas las comunicaciones se han de
hacer necesariamente a través de este. Los dispositivos no están directamente
conectados entre sí, además de que no se permite tanto tráfico de información.
Dado su transmisión, una red en estrella activa tiene un nodo central activo
que normalmente tiene los medios para prevenir problemas relacionados con el
eco.
Se utiliza sobre todo para redes locales. La
mayoría de las redes de área local que tienen un enrutador (router), un
conmutador (switch) o un concentrador (hub) siguen esta topología. El nodo
central en estas sería el enrutador, el conmutador o el concentrador, por el
que pasan todos los paquetes de usuarios.
Ventajas
a) Si
un PC se desconecta o se rompe el cable solo queda fuera de la red ese PC.
b) Fácil
de agregar, reconfigurar arquitectura PC.
c) Fácil
de prevenir daños o conflictos.
d) Centralización
de la red
Desventajas
a) Si
el nodo central falla, toda la red deja de transmitir.
b) Es
costosa, ya que requiere más cable que las topologías bus o anillo.
c) El
cable viaja por separado del concentrador a cada computadora.
Red con
topología de malla
La topología de red mallada es una topología de red
en la que cada nodo está conectado a todos los nodos. De esta manera es posible
llevar los mensajes de un nodo a otro por diferentes caminos. Si la red de
malla está completamente conectada, puede existir absolutamente ninguna
interrupción en las comunicaciones. Cada servidor tiene sus propias conexiones
con todos los demás servidores.
Ventajas
a) Es
posible llevar los mensajes de un nodo a otro por diferentes caminos.
b) No
puede existir absolutamente ninguna interrupción en las comunicaciones.
c) Cada
servidor tiene sus propias comunicaciones con todos los demás servidores.
d) Si
falla un cable el otro se hará cargo del trafico.
e) No
requiere un nodo o servidor central lo que reduce el mantenimiento.
f) Si
un nodo desaparece o falla no afecta en absoluto a los demás nodos.
g) Si
desaparece no afecta tanto a los nodos de redes.
Desventajas
a) El
costo de la red puede aumentar en los casos en los que se implemente de forma
alámbrica, la topología de red y las características de la misma implican el
uso de más recursos.
b) En
el caso de implementar una red en malla para atención de emergencias en
ciudades con densidad poblacional de más de 5000 habitantes por kilómetro
cuadrado, la disponibilidad del ancho de banda puede verse afectada por la
cantidad de usuarios que hacen uso de la red simultáneamente; para entregar un
ancho de banda que garantice la tasa de datos en demanda y, que en particular,
garantice las comunicaciones entre organismos de rescate, es necesario instalar
más puntos de acceso, por tanto, se incrementan los costos de implementación y
puesta en marcha.
Red en
topología de árbol
Topología de red en la que los nodos están
colocados en forma de árbol. Desde una visión topológica, la conexión en árbol
es parecida a una serie de redes en estrella interconectadas salvo en que no
tiene un nodo central. En cambio, tiene un nodo de enlace troncal, generalmente
ocupado por un hub o switch, desde el que se ramifican los demás nodos. Es una
variación de la red en bus, la falla de un nodo no implica interrupción en las
comunicaciones. Se comparte el mismo canal de comunicaciones.
La topología en árbol puede verse como una
combinación de varias topologías en estrella. Tanto la de árbol como la de
estrella son similares a la de bus cuando el nodo de interconexión trabaja en
modo difusión, pues la información se propaga hacia todas las estaciones, solo
que en esta topología las ramificaciones se extienden a partir de un punto raíz
(estrella), a tantas ramificaciones como sean posibles, según las
características del árbol.
Los problemas asociados a las topologías anteriores
radican en que los datos son recibidos por todas las estaciones sin importar
para quien vayan dirigidos. Es entonces necesario dotar a la red de un
mecanismo que permita identificar al destinatario de los mensajes, para que
estos puedan recogerlos a su arribo. Además, debido a la presencia de un medio
de transmisión compartido entre muchas estaciones, pueden producirse interferencia
entre las señales cuando dos o más estaciones transmiten al mismo tiempo.
Ventajas
1) Cableado
punto a punto para segmentos individuales.
2) Soportado
por multitud de vendedores de software y de hardware.
Desventajas
1) Se
requiere mucho cable.
2) La
medida de cada segmento viene determinada por el tipo de cable utilizado.
3) Si
se viene abajo el segmento principal todo el segmento se viene abajo con él.
4) Es
más difícil su configuración.
Las Redes de
topologías mixtas:
Son aquellas en las que se aplica una mezcla entre
alguna de las otras topologías: bus, estrella o anillo. Principalmente podemos
encontrar dos topologías mixtas: Estrella - Bus y Estrella - Anillo.
domingo, 11 de marzo de 2012
Red LAN y WAN
Una red de computadoras, también llamada red
de ordenadores, red de comunicaciones de datos o red informática, es un
conjunto de equipos informáticos y software conectados entre sí por medio de
dispositivos físicos que envían y reciben impulsos eléctricos, ondas
electromagnéticas o cualquier otro medio para el transporte de datos, con la
finalidad de compartir información, recursos y ofrecer servicios.
Ahora veamos de la definicion de los Tipos de Red:
LAN (Local Area Network): Una
red de área local, o red local, son redes de propiedad privada, de hasta unos
cuantos kilómetros de extensión. Por ejemplo una oficina o un centro educativo.
Se usan para conectar computadoras personales o estaciones de trabajo, con
objeto de compartir recursos e intercambiar información. Suelen emplear
tecnología de difusión mediante un cable sencillo al que están conectadas todas
las máquinas. Operan a velocidades entre 10 y 100 Mbps.
WAN (Wide Area Network): Una
Red de Área Amplia es un tipo de red de
computadoras capaz de cubrir distancias desde unos 100 hasta unos 1000 km,
proveyendo de servicio a un país o un continente. Son enlaces para grandes
distancias que amplían la LAN hasta convertirla en una red de área extensa
(WAN). Casi todos los operadores de redes nacionales (como DBP en Alemania o
British Telecom en Inglaterra) ofrecen servicios para interconectar redes de
computadoras.
Diferencias entre Red LAN y WAN:
Una de las diferencias entre redes LAN y WAN,
es la distancia que cubren estas redes. La LAN no supera los 100 metros, y la
WAN tiene una cobertura de entre 100 y 1000 kilómetros.
La segunda diferencia que nos encontramos
entre estas dos redes es la de la velocidad, donde la red LAN alcanza una
velocidad de transferencia de entre 1 Mbps hasta 4 Gbps y la red WAN de entre 1
Mbps y 1* Gbps.
La tercera diferecencia entre LAN y WAN tiene
que ver con las siglas CMT (Comisión del Mercado de las Telecomunicaciones). El
CMT es un comité que se encarga de controlar el buen funcionamiento de la red
WAN, la cual al ser tan grande, necesita estar controlada continuamente. En
cambio la red LAN no necesita el control de este comité porque al ser más
pequeña su cobertura es más fácil de controlar.
jueves, 8 de marzo de 2012
Facebook lanza Timeline para páginas de empresas
Tal como se había rumoreado hace algunos días, Timeline ya está disponible para Pages – es decir, las páginas de empresas. Se ven exactamente igual como el Timeline de personas comunes y corrientes, pero entregan algunas opciones extra para los administradores.
El Timeline integra fotos más grandes y muestra “hitos”, que son los equivalentes corporativos de los eventos de la vida que aparecen en el Timeline personal.
Las fotos más grandes debieran inspirar a los usuarios a navegar más tiempo por las páginas corporativas, y la nueva disposición de los elementos posiblemente inspire nuevas formas de interacción por parte de las empresas. El nuevo Timeline para Pages se puede instalar a partir de hoy, aunque también existe la opción de dejar la página en modo de prueba por 30 días. Se espera que este Timeline se vuelva obligatorio a partir del 30 de marzo.
Facebook también publicó un video explicativo sobre cómo funciona. Las APIs que se hayan implementado en la página seguirán funcionando como hasta ahora.
Timeline no está disponible todavía en móviles. Puedes revisar nuestro nuevo Page aquí.
Suscribirse a:
Entradas (Atom)