miércoles, 11 de abril de 2012

ASUS presentará nuevo servicio de almacenamiento en la nube de Internet



ASUS es una compañía fabricante de hardware o piezas para PC y además ensambla equipos propios como notebooks y Ultrabooks, siendo un gran protagonista de la industria tecnológica. Ahora, moverán su reino hacia el área de Internet para estrenar un servicio de almacenamiento de datos en la nube, el cual se encontrará con grandes competidores que están probando suerte en este rubro y vendrá a renovar a la existente ASUS Webstorage, que es bastante limitada.

Porque según Jonney Shih, Presidente de ASUS, revelarán una solución que espera abarcar toda gama de productos informáticos para sincronizar información entre ellos, estrenando su proyecto en el marco del evento Computex 2012 a realizarse en Taipei entre el 5 y 9 de junio. La idea es presentar un servicio “total” y “omnipresente”, según afirman.

Pero esta iniciativa seguramente será muy parecida a lo que hizo Acer hace tres meses con la AcerCloud, compitiendo a la vez con rivales consagrados como SkyDrive de Microsoft, iCloud de Apple o Dropbox. Ya veremos si traen algo innovador entre manos o se viene otro fracaso.

Link: http://news.softpedia.com/news/ASUS-Prepares-Total-Cloud-Computing-for-Computex-264035.shtml

Google Art nos abre las puertas a 151 museos de 41 países del mundo



Google Art Project nos sigue facilitando la entrada gratuita a museos a través de la Red: En su última gran aportación incluye museos de Colombia, Argentina, México, Brasil, Perú y España.

El Centro Nacional Museo de Arte Reina Sofía por ejemplo, formaba ya parte de este servicio de Google del que os informamos cuando el proyecto empezó con 17 galerías y 1.061 obras. Ahora se sumaron 10 museos latinoamericanos con más de 1.200 obras: el Museo Nacional de Bellas Artes (Argentina), el Museo de Arte Moderno de Sao Paulo (Brasil), la Pinacoteca del Estado de Sao Paulo (Brasil), el Museo Botero (Colombia), el Museo del Oro (Colombia), el Museo Nacional de Antropología (México), el Museo Nacional de Arte (México), el Museo Dolores Olmedo (México), el Museo Frida Kahlo (México) y el Museo de Arte de Lima (Perú).

En Google Art hay más de 30.000 obras de arte que forman parte de las colecciones de sus 151 socios repartidos por 40 países: La calidad de las imágenes es tan buena que en el caso de las pinturas, al ampliarlas se distinguen las pinceladas. Ahora también se pueden ver la icónica Piedra del Sol en México, pasando por la Mona Lisa del Museo Botero y el Retrato de Manuelita Rosa del argentino Prilidiano Pueyrredón, hasta el arte precolombino peruano y el arte callejero de los hermanos Osgemeos de Brasil.

Ahora la pregunta del millón: ¿Cómo buscamos una obra? Pues bien puedes hacerlo por nombre del artista, por el nombre de la obra, por tipo de arte, por museo, país, época o colecciones. Incluso entre las nuevas novedades, podemos formar nuestra propia colección con las obras que más nos gusten, añadiendo texto, con vídeos… y luego compartirla en las redes sociales o por email. Un buen recurso para profesores.

En un principio no podemos comparar el ambiente mágico de un museo, rodeados de obras que podemos ver “cara a cara”, con sus imágenes a través de la web. Pero lo que nos ofrece Google Art es la posibilidad de analizar cada detalle de una obra.

En muchos centros de arte está prohibido hacer fotos y en el caso de que se pueda, las obras están protegidas por cristales, no nos podemos acercar tanto a ellas o la luz es mala para fotos. A través de Google Art se distingue con toda claridad al ampliar la imagen, los trazos de la firma de un artista en un jarrón, por ejemplo.

Para los profesores y estudiantes de todo el mundo es una oportunidad para conocer colecciones completas sin la discriminación de las editoriales de libros de arte que eligen en sus publicaciones de cuáles obras hablar y de cuáles no.

Para los comunes mortales, tenemos la posibilidad de “pasear” por museos en los que a lo mejor no pondremos jamás el pie. Y al revés, igual después de ver sus colecciones, nos interesan tanto que decidimos visitarlos físicamente. ¡La magia de la Red al servicio del arte y el conocimiento!

http://www.youtube.com/watch?v=4ZdCByYeNRU&feature=player_embedded

http://www.youtube.com/watch?v=qVpqTd2ndYY&feature=player_embedded

Link:
http://www.diarioinformacion.com/cultura/2012/04/03/google-incorpora-cinco-nuevos-museos/1239942.html?utm_source=rss

http://tecnologiayproductosgoogle.blogspot.mx/2012/04/acercando-el-arte-mas-personas.html

jueves, 5 de abril de 2012

Seguridad Informática




¿Porque es importante la seguridad en los sistemas informativos computacionales?

Porque estas son medidas preventivas para reguadar información y nos permiten tenerla más segura de cualquier robo, plagio o información secreta la cual no puede ser vista por personal no autorizado.

Esta privacidad seria como una caja fuerte la cual tiene información y solo nosotros tenemos la clave, al menos que le queramos dar acceso a otra persona deseada.

¿Cuáles son los protocolos de seguridad para la protección de los sistemas?

Criptografía (Cifrado de datos), se ocupa del cifrado de mensajes un mensaje es enviado por el emisor lo que hace es transposicionar o ocultar el mensaje hasta que llega a su destino y puede ser descifrado por el receptor.

Lógica (Estructura y secuencia). Llevar un orden en el cual se agrupan los datos del mensaje el significado del mensaje y saber cuándo se va enviar el mensaje.

Autenticación. Es una validación de identificación es la técnica mediante la cual un proceso comprueba que el compañero de comunicación es quien se supone que es y no se trata de un impostor.

¿Recomendaciones para tener una clave segura?

Que la contraseña este escrita con 8 o más caracteres los cuales tengan letras en mayúscula y en minúscula, que contengan números y signos. Haci sele ara mucho mas difícil acceder de forma ilegal a cualquier persona no autorizada.

¿Recomendaciones de seguridad para que no sea robada tu clave?

Consejo 1: Nunca digas tus contraseñas, ni la respuesta de tu pregunta secreta a tus compañeros, amigos, novio(a), familiares.

Consejo 2: No seas tan obvio en tu contraseña, por ejemplo  no pongas tu fecha de nacimiento, tu nombre o apellido, trata de poner algo que nadie sepa.

Consejo 3: Si generalmente compartes la maquina con alguien más para entrar a revisar tu mail, no dejes activadas las opciones de entrar automáticamente o la de recordar mis datos y más si vas a un cyber.

Consejo 4: Revisa en la mayoría de lo posible que la maquina tenga un antivirus actualizado.

Consejo 5: No des clic a lo loco en las páginas que te presente algo bonito

¿Lista de programas para instalar sistemas de seguridad?

MYonlyusb
Avast
Kaperskin
PC Tools Firewall Plus 7.0.0.123

viernes, 30 de marzo de 2012

Modelo OSI


Modelo OSI

El modelo de interconexión de sistemas abiertos, también llamado OSI (en inglés open system interconnection) es el modelo de red descriptivo creado por la Organización Internacional para la Estandarización en el año 1984. Es decir, es un marco de referencia para la definición de arquitecturas de interconexión de sistemas de comunicaciones.

Fue desarrollado en 1984 por la Organización Internacional de Estándares (ISO), una federación global de organizaciones que representa aproximadamente a 130 países. El núcleo de este estándar es el modelo de referencia OSI, una normativa formada por siete capas que define las diferentes fases por las que deben pasar los datos para viajar de un dispositivo a otro sobre una red de comunicaciones.
Siguiendo el esquema de este modelo se crearon numerosos protocolos. El advenimiento de protocolos más flexibles donde las capas no están tan desmarcadas y la correspondencia con los niveles no era tan clara puso a este esquema en un segundo plano. Sin embargo es muy usado en la enseñanza como una manera de mostrar cómo puede estructurarse una "pila" de protocolos de comunicaciones.
El modelo especifica el protocolo que debe ser usado en cada capa, y suele hablarse de modelo de referencia ya que es usado como una gran herramienta para la enseñanza de comunicación de redes.
Se trata de una normativa estandarizada útil debido a la existencia de muchas tecnologías, fabricantes y compañías dentro del mundo de las comunicaciones, y al estar en continua expansión, se tuvo que crear un método para que todos pudieran entenderse de algún modo, incluso cuando las tecnologías no coincidieran. De este modo, no importa la localización geográfica o el lenguaje utilizado. Todo el mundo debe atenerse a unas normas mínimas para poder comunicarse entre sí. Esto es sobre todo importante cuando hablamos de la red de redes, es decir, Internet.

Capa física

Es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico como a la forma en la que se transmite la información.
Sus principales funciones se pueden resumir como:
Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
Transmitir el flujo de bits a través del medio.
Manejar las señales eléctricas del medio de transmisión, polos en un enchufe, etc.
Garantizar la conexión (aunque no la fiabilidad de dicha conexión)

Capa de enlace de datos

Esta capa se ocupa del direccionamiento físico, de la topología de la red, del acceso al medio, de la detección de errores, de la distribución ordenada de tramas y del control del flujo.
Por lo cual es uno de los aspectos más importantes a revisar en el momento de conectar dos ordenadores, ya que está entre la capa 1 y 3 como parte esencial para la creación de sus protocolos básicos (MAC, IP), para regular la forma de la conexión entre computadoras asi determinando el paso de tramas (trama = unidad de medida de la información en esta capa, que no es más que la segmentación de los datos trasladándolos por medio de paquetes), verificando su integridad, y corrigiendo errores, por lo cual es importante mantener una excelente adecuación al medio físico (los más usados son el cable UTP, par trenzado o de 8 hilos), con el medio de red que redirecciona las conexiones mediante un router. Dadas estas situaciones cabe recalcar que el dispositivo que usa la capa de enlace es el Switch que se encarga de recibir los datos del router y enviar cada uno de estos a sus respectivos destinatarios (servidor -> computador cliente o algún otro dispositivo que reciba información como celulares, etc.), dada esta situación se determina como el medio que se encarga de la corrección de errores, manejo de tramas, protocolización de datos (se llaman protocolos a las reglas que debe seguir cualquier capa del modelol OSI).

Capa de red

Se encarga de identificar el enrutamiento existente entre una o más redes. Las unidades de información se denominan paquetes, y se pueden clasificar en protocolos enrutables y protocolos de enrutamiento.
Enrutables: viajan con los paquetes (IP, IPX, APPLETALK)
Enrutamiento: permiten seleccionar las rutas (RIP,IGRP,EIGRP,OSPF,BGP)
El objetivo de la capa de red es hacer que los datos lleguen desde el origen al destino, aún cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominanencaminadores, aunque es más frecuente encontrarlo con el nombre en inglés routers. Los routers trabajan en esta capa, aunque pueden actuar como switch de nivel 2 en determinados casos, dependiendo de la función que se le asigne. Los firewalls actúan sobre esta capa principalmente, para descartar direcciones de máquinas.
En este nivel se realiza el direccionamiento lógico y la determinación de la ruta de los datos hasta su receptor final.

Capa de transporte


Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la de destino, independizándolo del tipo de red física que se esté utilizando. LaPDU de la capa 4 se llama Segmento o Datagrama, dependiendo de si corresponde a TCP o UDP. Sus protocolos son TCP y UDP; el primero orientado a conexión y el otro sin conexión. Trabajan, por lo tanto, con puertos lógicos y junto con la capa red dan forma a los conocidos como Sockets IP:Puerto (191.16.200.54:80).

Capa de sesión

Esta capa es la que se encarga de mantener y controlar el enlace establecido entre dos computadores que están transmitiendo datos de cualquier índole. Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcial o totalmente prescindibles.

Capa de presentación

El objetivo es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres los datos lleguen de manera reconocible.
Esta capa es la primera en trabajar más el contenido de la comunicación que el cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.
Esta capa también permite cifrar los datos y comprimirlos. Por lo tanto, podría decirse que esta capa actúa como un traductor.

Capa de aplicación


Ofrece a las aplicaciones la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (Post Office Protocol y SMTP), gestores de bases de datos y servidor de ficheros (FTP), por UDP pueden viajar (DNS y Routing Information Protocol). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.
Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente.

jueves, 29 de marzo de 2012

Aterrador: Mono controla mano robótica por medio de implantes cerebrales



De no ser por la cortina de censura que cae sobre el gigante asiático, quizás la universidad china de Zhejiang podría ser considerada como el MIT de Asia. Hace pocos días informaron que lograron implantar sensores en el córtex motriz cerebral de un mono con el objetivo de que el animal lograra mover una mano robótica con su cerebro.

Sin dudas la noticia parece sacada de una película futurista, pero de esas bien densas y oscuras ya que estremece no sólo ver al animal atrapado y sólo con la posibilidad de poder reaccionar con su cerebro (como se puede apreciar en este video), sino también ver cómo esa mano robótica se mueve sólo porque recibieron la respuesta motriz directamente de la neurona conectada por los científicos.

Según informaron los investigadores chinos, este experimento logró capturar y descifrar señales cerebrales del mono y traducirlas al movimiento indicado de los dedos de la interfaz conectada. Los dos sensores implantados en el cerebro del mono, de nombre Jianhui, sólo monitorean 200 neuronas del córtex motriz, lo que indica que las posibilidades de expansión de este proyecto son infinitas.

Luego de este primer paso, el objetivo a lograr es desarrollar movimientos cada vez más finos y precisos en los dedos de la prótesis. La investigadora Zheng Xiaoxiang comentó al respecto que “los movimientos de las manos están asociados con al menos varios cientos de neuronas. Ahora hemos descifrado los movimientos basados en 200 neuronas. Y claro, las órdenes que produjimos todavía están distantes en complejidad y fineza de los movimientos de los dedos verdaderamente flexibles”.

Si acaso la pareja de robots jugadores de ping pong chinos les parecieron un avance tecnológico relevante en los proyectos de robótica salidos de Zhejiang, imaginamos que este mono podría ser en breve el futuro Charles Xavier del gigante de Asia.

Link: http://pijamasurf.com/2012/02/mono-controla-mano-robotica-por-medio-de-implantes-cerebrales/

La Web


Es un sistema de distribución de información basado en hipertexto o hipermedios enlazados y accesibles a través de Internet. Con un navegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener texto, imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.

La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee con la ayuda del belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas web), y en los últimos años ha abogado por su visión de una Web semántica.


La 'Web 1.0 (1991-2003) es la forma más básica que existe, con navegadores de sólo texto bastante rápidos. Después surgió el HTML que hizo las páginas web más agradables a la vista, así como los primeros navegadores visuales tales como IE, Netscape,explorer (en versiones antiguas), etc.

La Web 1.0 es de sólo lectura. El usuario no puede interactuar con el contenido de la página (nada de comentarios, respuestas, citas, etc), estando totalmente limitado a lo que el Webmaster sube a ésta.

Web 1.0 se refiere a un estado de la World Wide Web, y cualquier página web diseñada con un estilo anterior del fenómeno de la Web 2.0. Es en general un término que ha sido creado para describir la Web antes del impacto de la fiebre punto com en el 2001, que es visto por muchos como el momento en que el internet dio un giro

Es la forma más fácil en el sentido del término Web 1.0 cuando es usada en relación a término Web 2.0, para comparar los dos y mostrar ejemplos de cada uno.

Diseño de elementos en la Web 1.0 Algunos elementos de diseño típicos de un sitio Web 1.0 incluyen:

  • Páginas estáticas en vez de dinámicas por el usuario que la visita
  • El uso de framesets o Marcos.
  • Extensiones propias del HTML como el parpadeo y las marquesinas, etiquetas introducidas durante la guerra de navegadores web.
  • Libros de visitas online o guestbooks
  • botonesGIF, casi siempre a una resolución típica de 88x31 pixels en tamaño promocionando navegadores web u otros productos.
  • formularios HTML enviados vía email. Un usuario llenaba un formulario y después de hacer clic se enviaba a través de un cliente de correo electrónico, con el problema que en el código se podía observar los detalles del envío del correo electrónico.




El término Web 2.0 está asociado a aplicaciones web que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario1 y la colaboración en la World Wide Web. Un sitio Web 2.0 permite a los usuarios interactuar y colaborar entre sí como creadores de contenido generado por usuarios en una comunidad virtual, a diferencia de sitios web donde los usuarios se limitan a la observación pasiva de los contenidos que se ha creado para ellos. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogs, mashups y folcsonomías.

El término Web 2.0 está asociado estrechamente con Tim O'Reilly, debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004.2 Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee, quien calificó al término como "tan sólo una jerga"- precisamente porque tenía la intención de que la Web incorporase estos valores en el primer lugar.


Se puede decir que una web está construida usando tecnología de la Web 2.0 si se caracteriza por las siguientes técnicas:


Técnicas:
CSS, marcado XHTML válido semánticamente y Microformatos
Técnicas de aplicaciones ricas no intrusivas (como AJAX)
Java Web Start
Redifusión/Agregación de datos en RSS/ATOM
URLs sencillas con significado semántico
Soporte para postear en un blog
JCC y APIs REST o XML
JSON
Algunos aspectos de redes sociales
Mashup (aplicación web híbrida)


General:
El sitio debe estar listo para la entrada de cualquier persona
El sitio no debe actuar como un "jardín cerrado": la información debe poderse introducir y extraer fácilmente
Los usuarios deberían controlar su propia información
Basada exclusivamente en la Web: los sitios Web 2.0 con más éxito pueden ser utilizados enteramente desde un navegador
La existencia de links es requisito imprescindible



jueves, 22 de marzo de 2012

México: Se construyen las instalaciones para la supercomputadora ABACUS



En la región boscosa de La Escondida, Estado de México, se construyen las instalaciones donde estará alojada la supercomputadora ABACUS, la cual servirá para buscar soluciones a diferentes problemas de la ciencia y tecnología de México. Es desarrollado por el Consejo Mexiquense de Ciencia y Tecnología (Comecyt) y el Centro de Investigación v de Estudios Avanzados del Instituto Politécnico Nacional (Cinvestav).

El proyecto se basó en el modelo del Barcelona Supercomputing Centre (BSC) y también es apoyado por la empresa MATHEON de Alemania por medio de una alianza estratégica. La inversión inicial del proyecto asciende a MXN$130 millones, por lo que ABACUS se convertirá en la supercomputadora más grande de México y en el proyecto más ambicioso que se ha llevado a cabo en nuestro país en más de 30 años.

En cuanto a las especificaciones técnicas, ABACUS contará con 400 Terabytes (Tb) de espacio en disco, una memoria RAM de 24 Tb y alcanzaría los 20 mil núcleos con una capacidad de procesamiento de 250 Teraflops.

ABACUS desarrollará matemáticas de punta, elaborará modelos y soluciones a problemas que tengan un fuerte impacto económico y social relacionados con la salud, la energía, el medio ambiente, la predicción del clima, transporte y hasta el sector industrial.

Por ejemplo, la máquina podría ser auxiliar en el desarrollo de nuevos medicamentos y procedimientos quirúrgicos; también en la secuenciación genómica, el estudio de contaminación por gases, análisis del subsuelo, terremotos, extracción petrolera, finanzas, mercados económicos, industria aeronáutica y automotriz, nanotecnología y problemas del transporte.

También jugará un papel importante en la formación de científicos de alto nivel que podrán interactuar con otros expertos en situaciones reales que buscan un alto desempeño en sus capacidades. Se estima que las obras terminarán dentro de 18 meses, por lo que se podrá adquirir el equipo para su instalación.

Link: http://www.eluniversaledomex.mx/otros/nota27805.html