Wednesday, November 28, 2007

WiMax frente a todos

Los reyes del acceso a Internet por banda ancha son el ADSL y el cable, con WiFi para llevar la Red por el aire dentro de un espacio de unos centenares de metros y UMTS para hacerla completamente móvil (aunque de un coste muy superior). WiMax viene a trastocar un poco los planes de todas estas tecnologías, pues a todas les puede llegar a afectar de alguna manera. La instalación es mucho más barata que la del UMTS o las redes de cable; una pequeña inversión será suficiente para cubrir una ciudad entera con servicios de voz y datos sin necesidad de abrir zanjas.
En principio WiMax no compite con WiFi, pues permitirá conectar los puntos de acceso (hotspots) de WiFi entre sí. De la misma forma, puede desarrollarse en paralelo a los accesos por banda ancha ofrecidos por las redes de cable y ADSL. Sin embargo, si se convierte en un estándar de uso generalizado y se despliega de forma masiva, podría reemplazar a otros tipos de conexión, e incluso amenazar a la telefonía móvil de tercera generación. La firma de investigación TelecomView destaca en un estudio las buenas opciones de WiMax para acaparar hacia 2009 buena parte de la cuota de mercado del UMTS y el ADSL, tecnologías que en algunos casos puede complementar pero en otros sustituir.
La última milla
La batalla actual entre los proveedores de acceso a Internet está en la última milla, el bucle local o tramo del cable que llega hasta los hogares. El desarrollo de WiMax podría acabar con el dominio del mercado del que disfrutan los propietarios de las líneas que van desde las centralitas a cada domicilio (en España casi en exclusiva de Telefónica). Con esta nueva tecnología, cualquier proveedor podrá ofrecer acceso a Internet de banda ancha directamente a las casas, sin necesidad de tender una red de cable hasta cada hogar. Y, aunque WiMax nació con el objetivo de cubrir la última milla, también será capaz de ofrecer una alternativa a las conexiones por cable y ADSL.
También representa un serio rival, al menos a medio plazo, para la telefonía móvil de tercera generación (UMTS). La señal de radio de WiMax atraviesa hasta el hormigón, mientras que basta la niebla para deteriorar la de UMTS, que debe desplegar antenas en el interior de los edificios para ofrecer cobertura. Las nuevas operadoras móviles podrían emplear el estándar WiMax para competir con la telefonía 3G, aunque esto dependerá de los organismos reguladores. De hecho, hay un periodo de restricción (hasta 2007) destinado a que los operadores intenten recuperar sus cuantiosas inversiones en el despliegue de UMTS.
Pero aunque WiMax pueda ser un adversario de UMTS en zonas metropolitanas, será difícil que se despliegue una red que cubra todo el territorio y compita en movilidad con las redes de telefonía. Sin embargo, la siguiente revisión del estándar, 802,16e (conocido como WiMax móvil), sí que aparece como alternativa sólida a las redes de telefonía 3G. Por lo que pueda pasar, los operadores ya trabajan en una nueva red (Súper 3G), diez veces más potente que la actual. Brian Subirana, profesor del IESE, cree que para que la telefonía móvil de tercera generación sobreviva a la amenaza de WiMax deberá bajar sus costes de forma radical, convertirse en un servicio ubicuo y llegar a ser un estándar generalmente aceptado, algo que con sus cualidades no parece muy complicado.

Pruebas piloto WIFI mAX

El mes pasado Intel logró el apoyo de Nokia para convertir WiMax en el nuevo estándar de acceso inalámbrico a Internet. El respaldo del mayor fabricante de móviles puede dar el empujón definitivo para el despegue de esta tecnología. Francia, Irlanda y Gran Bretaña, donde British Telecom ya ha realizado pruebas en zonas rurales, ya han dado los primeros pasos para desplegar las redes WiMax. En EEUU, el operador de telefonía Sprint planea comenzar a probar equipos WiMax fabricados por Motorola.
En España, Andalucía se ha convertido en pionera en la adopción de WiMax. La Consejería de Innovación, Ciencia y Empresa e Iberbanda han firmando un acuerdo de colaboración por el que la segunda se compromete a invertir un mínimo de 9,5 millones de euros para el desarrollo de proyectos de telecomunicaciones inalámbricas y el despliegue de infraestructuras de tecnología WiMax.
Además, el WiMAX Forum ha seleccionado a CETECOM, empresa participada mayoritariamente por la Junta de Andalucía, como su primer (y hasta la fecha único) laboratorio oficial de certificación para todo el mundo. El inicio de las pruebas de la certificación de equipos, que garanticen su interoperabilidad, está marcado para este mismo mes de julio. Si no se presentan nuevos retrasos, los primeros equipos certificado podrán ver la luz el año que viene, y en 2007 aparecerán los primeros ordenadores con tecnología WiMax integrada.
Iberbanda ya está desplegando una red 'preWiMax' mediante estaciones base con un radio de hasta 30 kilómetros, que ofrece conexiones de banda ancha a 256 Kbps y 4 Mbps (similares a las distintas modalidades del ADSL actual), sobre la que podrá implantar la tecnología WiMax cuando esté disponible. WiMax opera en frecuencias libres (5,8 Ghz), menos adecuadas para ofrecer movilidad, y en otras bandas (3,5 Ghz) en poder de operadores de LMDS (tecnología de acceso en banda ancha vía radio) como Iberbanda, que parten con ventaja para competir con la telefonía celular.
Pablo Comellas, director de Tecnología de Iberbanda, aseguró en el Campus TI que WiMax "permitirá el desarrollo definitivo de la Sociedad de la Información", gracias a su capacidad para dar cobertura a zonas de difícil acceso. Aunque no todos los especialistas coinciden en garantizar el triunfo de WiMax sobre otras tecnologías, resulta evidente que nos espera un futuro conectado a Internet a alta velocidad, sin cables, sin ataduras.

El futuro ha de esperar

Intel anunció el lanzamiento de su chip con WiMax incorporado, llamado Rosedale, el pasado abril, aunque en septiembre de 2004 suministró los primeros microprocesadores a los fabricantes de equipos (ya hay más de una decena de fabricantes con equipos preparados). Sin embargo, todavía no se ha completado el proceso de certificación y pasará bastante tiempo hasta que los fabricantes integren los nuevos procesadores en portátiles, PDAs y teléfonos móviles y se superen las pruebas de interoperabilidad entre distintos equipos.
Los expertos creen que WiMax no estará listo hasta fin de año, y pasarán al menos otros dos años antes de su implantación definitiva, algo que no ocurrirá antes de que se produzcan chips en masa y se fabriquen equipos compatibles que vayan abaratando sus precios. De hecho, a principio de año el WiMax Forum anunció un retraso de seis meses para comenzar con la certificación del estándar 802.16.
Antes de que los portátiles vengan con chips para conectarse mediante WiMax, como ahora lo hacen con WiFi, WiMax funcionará en una primera fase mediante antenas receptoras situadas en los edificios, que se encargarán de recibir y descodificar la señal emitida desde una estación base. En una etapa posterior, que deberá llegar ya el año que viene, se venderán módem autoinstalables, similares a los que se ofrecen ahora para el acceso mediante ADSL, que costarán en torno a los 190 euros. Finalmente, en 2007 ó 2008 los receptores de la señal WiMax estarán integrados en los equipos -si Intel cumple con la fecha prevista de comercialización de su chip PRO-Wireless 5116-, que se podrán conectar a la Red desde cualquier lugar dentro del radio de acción de una estación base.

Internet a todas partes

Además de las ventajas inherentes a una amplia red con gran capacidad, a través de la cual ofrecer todo tipo de servicios, WiMax se presenta como una eficiente alternativa para llevar Internet a lugares donde hasta ahora era prohibitivo, como las zonas rurales. En España, Iberbanda trabaja con Intel para llevar esta tecnología a zonas de Cataluña y Andalucía sin cobertura de banda ancha como el ADSL.
WiMax, al contrario que las redes de telefonía móvil (como la actual GSM o la incipiente UMTS), opera dentro de un espectro de onda no regulado (por debajo de los 11Ghz), por lo que en principio no deberían existir demasiados requisitos legales para su implantación, más allá de los problemas que ha habido entre la CMT y los municipios que han instalado redes WiFi sin las licencias necesarias. Será suficiente una inversión al alcance de una Pyme para dar conexión a Internet de banda ancha a grandes zonas.
WiMax funciona mediante señales de radio al igual que WiFi, pero a diferencia de ésta, cuya señal comienza a degradarse cuando trabajan más de 20 personas a la vez, soporta varios cientos de usuarios por canal, con un gran ancho de banda. Es adecuada para ofrecer múltiples servicios de calidad (voz sobre IP, datos, vídeo, etc.) de forma simultánea.

WiMax, kilómetros de conexión inalámbrica

Si WiFi conecta todo el hogar a la Red sin cables, WiMax promete hacer lo mismo con las ciudades
Todavía vivimos la revolución WiFi, que ha liberado Internet de los cables en los hogares, aeropuertos, restaurantes... y ya está aquí su 'hermana mayor', WiMax, que ofrece mayor alcance y más ancho de banda. Esta nueva tecnología, respaldada por buena parte de las empresas más importantes del sector, permitirá con una inversión mínima crear redes inalámbricas metropolitanas conectadas a Internet a alta velocidad que compitan con las grandes empresas de telecomunicaciones. Tras un retraso en el proceso de certificación del estándar, se espera que el año que viene comience a rodar en una primera fase, y que en 2007 se vendan los primeros equipos con chip WiMax integrado.
WiMax (Worldwide Interoperability for Microwave Access) es el nombre comercial del estándar 802.16, un protocolo de transmisión de datos inalámbrico que va un paso más allá de WiFi. WiMax promete una velocidad de 70 megabits por segundo (siete veces el ancho de banda de WiFi), que con una sola antena cubrirá un área de 50 kilómetros a la redonda, frente a los 300 metros de WiFi. Es decir, WiMax será a una ciudad entera lo que WiFi es para los hogares: conexión a Internet a alta velocidad sin cables.
El nuevo estándar está respaldado por importantes fabricantes de equipos y proveedores de servicios. El WiMax Forum está formado por más de 230 miembros entre los que destacan nombres como Intel, Nokia, Siemens, Motorola, Samsung o Fujitsu, y donde no faltan operadores de telefonía como Deutsche Telekom, France Telecom, Telecom Italia o Euskaltel. Intel es el gran impulsor de esta nueva tecnología; ya produce los primeros chips WiMax que los fabricantes venderán integrados en sus equipos en unos dos años.

Wednesday, November 21, 2007

NAS, almacenar archivos en red



Se trata de una tecnología pensada para que el usuario utilice una red de ordenadores como el servidor donde guardar su información
El abaratamiento y mayor tamaño de los discos duros, y las posibilidades de los nuevos dispositivos, están popularizando el almacenamiento en red con varios fines. Hay diversas soluciones para cada tipo de usuario, desde el ámbito doméstico, en el que se busca un almacén de copias de seguridad y reproducción de archivos multimedia, hasta el entorno profesional, en el que se apuesta por una solución más estable y escalable (que soporta el crecimiento) de almacenamiento.
Los sistemas NAS, en inglés 'Network Attached Storage', están diseñados para almacenar datos y hacerlos accesibles a los equipos conectados a una red. Una forma sencilla de montar un sistema NAS en una pequeña red local es utilizar los servicios de un servidor, ya sea con sistema operativo Windows, Linux o Mac, y compartir archivos mediante programas que lo permiten, como por ejemplo Samba (SMB/CIFS).
Existen también distribuciones específicas para sistemas NAS, como FreeNAS, que permiten la instalación de un servidor en cualquier equipo, incluso con la opción de arrancar desde CD, USB o una de las particiones. Estos sistemas requieren un ordenador permanentemente encendido, o al menos durante el horario en que se use alguno de los equipos de la red.
Un servidor doméstico Lacie de 1 Terabyte
Otra opción es apostar por una solución dedicada a esta labor. Marcas como Iomega, Lacie o HP disponen de una gama de servidores NAS y otros sistemas de almacenamiento profesional, con distintos niveles de redundancia y capacidad.
En una escala de menor de exigencia, se sitúan los sistemas NAS para particulares y pequeñas redes, con un propósito general como servidores de almacenamiento. Nslu2 de Linksys es un pequeño y silencioso aparato del tamaño de un libro de bolsillo que inicialmente fue diseñado para compartir discos duros mediante USB en una red Ethernet.
El dispositivo Nslu2 (Wikipedia)
En algunos casos la pericia de los usuarios y la creación de una comunidad activa aumenta en los dispositivos NAS las funciones previstas inicialmente, como mero dispositivo de almacenamiento.
Las modificaciones realizadas al código fuente, dado su carácter abierto, y la instalación de distribuciones GNU/Linux, así como algunos cambios en su hardware, convierten a dispositivos como Nslu2 en discretos servidores, capaces de gestionar programas P2P, webcams y otras funciones reservadas a equipos muy superiores, con la ventaja adicional de un consumo que no supera los ocho megavatios.
Otras combinaciones
Mediante aparatos como la estación base Airport Extreme de Apple es posible compartir cualquier disco duro con conexión USB y accesible mediante wifi, así como su posterior reproducción en otros dispositivos multimedia como Apple TV. Aunque da acceso wifi a todo tipo de aparatos, las opciones más avanzadas (compartir impresoras, discos duros, etc) sólo funcionan con aparatos compatibles con el sistema operativo Mac OS.
Peekbox
Si el propósito del sistema de almacenamiento en red es la posterior reproducción de contenidos de audio o vídeo directamente en un televisor, existen distintas soluciones en el mercado que evitan la necesidad de un ordenador, la grabación en DVD y la reproducción con los códecs adecuados. La solución más sencilla y que menos aparatos encendidos requiere son los routers multimedia con disco duro, que aúnan las funciones de varios dispositivos.
Otra opción son los discos duros multimedia con conexión a red, bien sea por cable o mediante wifi, como Peekbox, que reúne las funciones de servidor de almacenamiento y las de un reproductor. Conectado al televisor evita el paso de los datos por otros equipos.

el hardware libre

A la sombra del crecimiento del software libre, ha aparecido en los últimos años el llamado hardware libre
Su objetivo es crear diseños de aparatos informáticos de forma abierta, de manera que todas las personas puedan acceder, como mínimo, a los planos de construcción de los dispositivos. Lejos de ser una novedad, esta corriente enlaza directamente con década de los años 70, cuando los primeros aficionados a los ordenadores construían sus propios equipos en los garajes con piezas compradas a diferentes fabricantes y creaban sus propias implementaciones.
Hoy en día, aquellos garajes cargados de creatividad se han convertido en museos (como ocurrió recientemente con el Bill Hewlett y Dave Packard, donde se gestó el primer dispositivo Hp) y sus ocupantes de entonces son ahora Bill Gates y Paul Allen (Microsoft), o Steve Wozniak y Steve Jobs (Apple).
Libre no es gratuito
Al igual que en el software libre, la denominación de hardware libre, se refiere a la libertad de poder utilizar el dispositivo y su documentación, no a que sea necesariamente gratuito. Aunque comparta filosofía con el software libre, debido a la propia naturaleza de estos componentes físicos, muchos de sus preceptos son limitados. Básicamente se considera que un hardware es abierto si cumple una serie de requisitos.
La información sobre la manera de comunicarse con el hardware, el diseño del mismo y las herramientas utilizadas para crear ese diseño deben ser publicadas para ser usadas libremente. De esta manera se facilita el control, implementación y mejoras en el diseño por la comunidad de desarrolladores.
La información sobre la manera de comunicarse con el hardware, el diseño del mismo y las herramientas utilizadas para crear ese diseño deben ser publicadas para ser usadas libremente
Sin embargo, debido a la gran cantidad de patentes que existen en la creación de componentes informáticos, muchas veces se hace complicado el conseguir una solución optima que previamente no haya sido patentada por una empresa. Además, cada vez más, los componentes informáticos son lanzados al mercado con una limitada documentación, hasta el punto de hacer imposible una reparación.
Por otra parte, el hardware se ha convertido en un 'comodity' (materia prima) sobre el cual crear modelos de negocios y ejercer un control descarado de los usos que puedan realizarse con ellos. En 2000, por iniciativa de Microsoft y otros fabricantes informáticos, se lanzó el llamado sistema 'Trusted Computing' para certificar qué tipo de programas pueden funcionar en cada tipo de aparato.
Este sistema un tanto 'perverso' es utilizado normalmente para la gestión de derechos digitales (DRM) en multitud de dispositivos como reproductores de DVD, equipos de Audio, teléfonos, televisores, etc. Es el culpable de que un CD con DRM no se pueda copiar en el ordenador más que un número limitado de veces.
De la unión de plataformas de software y hardware abierto, nacen proyectos que suponen una ventaja para usuarios y desarrolladores
Certificación de 'Hardware libre'
En la comunidad del software libre, existe un programa de certificación de hardware denominado 'Open Hardware Specification Program' que es una forma limitada del concepto del Hardware libre, utilizado principalmente para hacer compatibles diversos componentes informáticos con el sistema operativo GNU Linux, como es el caso común de crear drivers (controladores) para hacer que las impresoras funcionen con este sistema operativo.
En internet existen algunos proyectos en este sentido, como OpenCores y OpenHardware.de, que recopilan esquemas y desarrollos de componentes de hardware enviados por profesionales independientes, que colaboran con el mismo espíritu que mueve la comunidad del software libre.
OpenMoko y Android, teléfonos abiertos

De la unión de plataformas de software y hardware abierto, nacen proyectos que suponen una ventaja para usuarios y desarrolladores al disponer estos de mayor libertad para crear e instalar aplicaciones al mismo tiempo que adaptar algunas funciones del hardware.
OpenMoko es una plataforma abierta para desarrolladores para crear un sistema operativo libre basado en Linux que funcione sobre teléfonos móviles. De esta manera, diversos fabricantes de teléfonos móviles podrían incluirlo en los terminales llamados 'smartphone'.
El primer teléfono móvil que funciona con OpenMoko es el Neo1973 fabricado por FIC, cuya versión para desarrolladores está actualmente a la venta por 300 dólares. Se espera que un nuevo dispositivo móvil con mayores funcionalidades sea lanzado próximamente bajo el nombre en clave HXD8.

Android
En este sentido, Google ha presentado recientemente una plataforma de software abierta para desarrolladores de dispositivos móviles llamada Android, junto con la creación de una alianza con 34 empresas del sector denominada 'Open Handset Alliance', para dotar de un sistema operativo abierto a los fabricantes de teléfonos. Esta iniciativa puede suponer que se pueda ensamblar un teléfono móvil por piezas de diferentes fabricantes y hacerlo funcionar con Android.
Arduino

Arduino
Otra de las iniciativas nacidas bajo el concepto de harware libre es el proyecto Arduino. Esta plataforma consiste en una placa con diversas entradas y salidas que permite el desarrollo de infinidad de proyectos para el control de objetos interactivos autónomos, al mismo tiempo que sirve de plataforma para estudiantes como iniciación al mundo de la electrónica.
Una de las opciones más utilizadas de la plataforma Arduino es la del diseño y construcción de instrumentos musicales electrónicos en combinación con el software libre de audio Pure Data, que permite crear experiencias sonoras y visuales en tiempo real por parte de artistas digitales.

Wednesday, October 31, 2007

Pantallas táctiles: la tecnología en la punta de los dedos

Las tecnologías para manejar los más diversos aparatos por contacto digital se imponen con rapidez en todos los campos
Año 2000. Minority Report: Tom Cruise maneja con la punta de los dedos decenas de fotografías digitales sobre el cristal de una ventana. La escena supuso para los espectadores todo un impacto, la muestra de un futuro casi inalcanzable. Sin embargo, pocos sabían que aquello no sólo era posible desde hacía más de veinte años, sino que además, un lustro más tarde, se convertiría en una práctica corriente en los móviles, los cajeros automáticos, los puntos de venta de billetes de los aeropuertos, los ordenadores e incluso las de las ventanas de oficinas. La tecnología táctil se impone por muchas razones: entre ellas su gran usabilidad, su versatilidad y su resistencia al desgaste
El teclado y el ratón fueron dos puntales para que el ordenador personal se perfilara como una de las revoluciones más notables en la historia moderna de la humanidad y, sin embargo, tal vez pasen a posteridad como meros comparsas, simples intermediarios entre el hombre y la máquina informática.
Pronto la mano podría desecharlos para interactuar directamente con la pantalla del ordenador, de un modo mucho más gráfico, y simple, que lo que supone teclear botones con letras, o mover un artefacto periférico sobre una superficie horizontal para que el movimiento se refleje en una pantalla.
Basta con seleccionar visualmente la opción deseada y poner el dedo encima del icono gráfico para que se realice la operación
Basta con acudir a un aeropuerto con el fin de obtener la tarjeta de embarque de un billete electrónico para darse cuenta de que la usabilidad juega en favor de los sistemas de manejo táctil. En primer lugar porque disponer de toda la superficie de la pantalla para realizar las funciones permite situar sobre la misma un abanico de posibilidades de operar mucho más amplio.
Basta con seleccionar visualmente la opción deseada y poner el dedo encima del icono gráfico para que se realice la operación. Además, el cerebro identifica antes las imágenes que las palabras; funciona con imágenes, no con palabras.
Por otro lado en el caso de los teclados de pantalla, al tratarse realmente de programas gráficos intercambiables por otros 'interfaces' (entornos gráficos), y no de hardware periférico que ocupa un espacio físico, las teclas son grandes y claramente visibles, con lo que además de usables se hacen más accesibles.
Navegar por Internet, por ejemplo, no exige ya escribir más que un par de palabras en Google o Yahoo!
En los casos en los que no se deba escribir un texto superior a las dos o tres palabras, los teclados de pantalla son mucho más cómodos, y tal es el caso de la mayoría de las acciones que se realizan con un ordenador. Navegar por Internet, por ejemplo, no exige ya escribir más que un par de palabras en Google o Yahoo!, y lo mismo ocurre cuando se ve un vídeo, se escucha una canción o se reserva un vuelo en una agencia online.
Aún así, es cierto que, de momento, el teclado resulta imprescindible para escribir textos, organizar tablas de datos o chatear por el cliente de mensajería instantánea. El ratón también resulta sumamente útil en la edición de imágenes, aunque con los recientes avances en pantallas multicontacto estás funciones podrían ser mucho más sencillas de realizar con los dedos.
Otro factor que juega a favor de las tecnologías de contacto es que se muestran mucho más resistentes que el hardware periférico. Mientras que en un servicio público el teclado y el ratón tienen que ser especialmente sólidos y resistentes para soportar el continuo paso de usuarios, las últimas pantallas táctiles desarrolladas soportan perfectamente el polvo, las manchas de suciedad e incluso los arañazos. Y si algo falla, no hay que reponer el material; basta con reiniciar el software del entorno gráfico
Una tecnología con más de cuarenta años de antigüedad
Las tecnologías de pantalla táctil tienen casi tanta antigüedad como el mismo ratón. La primera superficie de manejo táctil fue diseñada en 1971 por el ingeniero Samuel C. Hurst, y el primer ordenador con pantalla táctil fue el HP-150, que apareció en el mercado en 1983.
Consistía en una pantalla de tubo de rayos catódicos (como las televisiones 'de tubo') sobre las que se extendía superficialmente un campo de rayos infrarrojos. Cuando el dedo incidía sobre algún punto de la pantalla, se producía una interferencia en el campo de infrarrojos que el ordenador detectaba y localizaba espacialmente.
Sus primeros usos fueron en la industria pesada, pero progresivamente fue pasando a los primeros ordenadores usados como terminales de servicios; es decir, cajeros automáticos, puntos de compra de entradas, etc.
Actualmente el último grito en tecnología de pantalla táctil son las pantallas multicontacto, que permiten realizar operaciones sobre la pantalla con dos o más dedos a la vez. Están siendo usadas tanto en el manejo de mapas como en la edición de imágenes y de audio, y tienen una gran acogida en museos y auditorios, donde se realizan exhibiciones y se imparten clases o conferencias.
Pero aunque la propia tecnología de multicontacto tiene más de veinte años, el desarrollo comercial de las pantallas táctiles ha sido muy lento y sólo en los últimos tiempos han ido apareciendo en los más diversos aparatos, desde móviles y consolas a reproductores de MP3 e incluso proyectores o mesas de mezclas digitales.
Touchpad, el primer enemigo del ratón
Curiosamente, uno de los primeros desarrollos táctiles aplicados al ordenador no fue una pantalla, sino un ratón integrado en el teclado de los portátiles: el Touchpad. Se trata de la pequeña superficie oscura que sustituye al ratón periférico en el caso de que, en una situación de movilidad, no se disponga de una superficie sobre la que mover el dispositivo.
El Touchpad vino a solucionar el problema del espacio y los cables, pero no ha acabado siendo la solución definitiva. Es cómodo mover el dedo por su superficie para manejar el ordenador cuando se tiene a éste encima de las rodillas en los asientos de un aeropuerto o una estación de tren, pero cuando se dispone de una mesa ancha sobre la que poner la alfombrilla, el ratón clásico es mucho más práctico.
Sin embargo, la tecnología Touchpad tuvo mucho más éxito al desplazarse a los primeros iPod que lanzó Apple al mercado, y aunque la compañía cambió la estructura de funcionamiento en superficie por otra circular (la famosa 'rueda'), los fundamentos físicos son los mismos.
Su funcionamiento se basa en dos capas de electrodos, una vertical y otra horizontal, que varían su estado eléctrico al contacto con un dedo humano, ya que éste también tiene una carga eléctrica que crea una perturbación en la superficie. Si se desplaza el dedo, la perturbación eléctrica también se desplaza y el aparato recibe tal desplazamiento como una orden.
Sus ventajas son que es muy resistente al entorno, soporta perfectamente el polvo, la humedad, la electricidad estática, etc. Además es ligero, fino y puede ser flexible o transparente.
¿Ventanas o pantallas?

La unión de las tecnologías de pantallas táctiles y los cristales polarizados ha permitido construir edificios en los cuales se puede utilizar cualquiera de sus ventanas como una gigantesca pantalla táctil de ordenador. Tal es el caso del centro de nuevas tecnologías CitiLab de Cornellà (Barcelona).
Sobre los cristales de este centro se proyectan las imágenes del entorno gráfico del ordenador de manera nítida. Posteriormente, colocando en los vértices del cristal emisores de rayos infrarrojos, se crea un campo en superficie que sólo se ve alterado con el contacto de un dedo.
De está manera, gracias a la perturbación del campo de infrarrojos, el ordenador localiza dónde se ha producido el contacto y sabe qué orden se le está dando. La tecnología multicontacto permite además la interacción de dos o más dedos sobre la superficie, de modo que se pueden dar órdenes combinadas moviendo los dedos de una forma u otra.
Este modo de usar la tecnología táctil es muy útil para el manejo de mapas en tres dimensiones, pues permite fácilmente hacer aumentos de escala y disminuciones, así como darle la vuelta al mapa o ponerlo en horizontal, con un sencillo movimiento.
Donde más están avanzando las tecnologías táctiles es en las superficies pequeñas de los aparatos portátiles. Desde reproductores multimedia como el iPod Touch a consolas como la Nintendo DS; desde teléfonos móviles como los Nokia de última generación a híbridos como el HTC-Touch o el iPhone, las pantallas táctiles se imponen como la solución a la falta de espacio (en realidad son programas que sustituyen al hardware) y las incomodidades de dar órdenes cada vez más complejas manejando un teclado minúsculo con el dedo pulgar.
Sin duda una de las características más atractivas del mediático iPhone es su pantalla con teclado táctil, que facilita mucho las complejas operaciones que se puedan realizar en él, ya que llamar por teléfono es sólo una de las muchas funciones que permite este aparato. En la misma línea, aunque en su variante de reproductor multimedia, Apple acaba de lanzar el iPod Touch.
Pero a pesar de tener registrado el nombre de la tecnología de multicontacto 'Multi-Touch', Apple no es la única compañía empeñada en el uso de pantallas táctiles. El teléfono de Nokia N98, que se sitúa en la gama más alta, también tiene desarrollos similares que permiten moverse con el pulgar de apartado en apartado entre cientos de funciones sin mayores problemas.
Incluso Nokia ha recuperado ahora el N-Gage, un dispositivo que juntaba la consola de videojuegos con el teléfono y que se podía manejar a través de un teclado. La compañía finlandesa considera que este es un momento propicio para este tipo de tecnologías siempre que se sustituya el teclado por la pantalla táctil.
JazzMutant, una empresa apreciada por los Dj's
La tecnología de pantallas táctiles ha alcanzado campos tan especializados como son la edición de audio profesional y las sesiones de Dj's. Los más importantes disc jockeys utilizan ya mesas de mezcla digitales con pantalla táctil. Pesan poco y contienen en su interior todo lo necesario para su trabajo: desde su música digitalizada a todo el software para realizar las mezclas, controlar los cambios de ritmo y la ecualización o planificar el orden en que aparecerán las canciones.
JazzMutant es una empresa puntera en este campo, apreciada por artistas tan famosos como Richie Hawtin o Bjork, que lo utilizan en sus sesiones. Se trata en realidad de un pequeño ordenador portátil sin teclado y con una pantalla táctil multicontacto que muestra todos los comandos necesarios para la edición, ecualización y programación de sesiones musicales.
Carne de TVP
Las pantallas táctiles son el entorno natural para los Terminales de Punto de Venta (TVP). Es decir, toda la gama de servicios digitales y telemáticos que se desarrollan a pie de calle mediante ordenadores. En este rango caben desde los cajeros automáticos hasta los denominados 'tótems', que son columnas situadas en entornos públicos dentro de las cuales se instalan uno o más ordenadores.
La compra de entradas en los cines, de pasajes en los ferrocarriles o el metro, la obtención de tarjetas de embarque en los aeropuertos o la sustracción de dinero en los cajeros automáticos son algunas de las funciones realizadas mediante TVP. Y todos ellos funcionan actualmente, en mayor o menor medida, con pantallas táctiles.
Sus ventajas para estos servicios son su gran usabilidad (pues al ser gráficos son muy intuitivos y rápidos para realizar operaciones más o menos complejas), y su gran resistencia al uso continuado. Principales tecnologías
Hay diferentes tecnologías de creación de pantallas táctiles, cada una con sus ventajas y sus aplicaciones en unos campos u otros.
Resistiva: Las pantallas táctiles resistivas se basan en la formación de puentes eléctricos entre dos capas conductoras con diferente potencial eléctrico separadas por una zona de aire, que actúa de aislante. Cuando el dedo presiona sobre la pantalla, pone en contacto las capas conductoras y se produce un movimiento de electrones que es detectado y localizado por un controlador. Algunas pantallas de este tipo miden también la presión que se ejerce.
Este tipo de pantallas son más asequibles en precio, pero presentan el inconveniente de que pierden un 25% del brillo por la separación de las capas. Además, pueden ser dañadas por los arañazos. Por contra, no se ven afectadas por el polvo o el agua.
De Onda Acústica Superficial: Esta tecnología utiliza ondas de ultrasonidos que se transmiten sobre la pantalla táctil. Cuando la pantalla es tocada, una porción de la onda es absorbida. Este cambio en las ondas de ultrasonidos permite al controlador obtener la posición en la que se ha tocado la pantalla. Es una tecnología poco resistente al entorno.
Capacitivas: Las pantallas están cubiertas por un materia que conduce la corriente eléctrica y se carga de electrones. Como el cuerpo humano también tiene carga eléctrica, al contactar con la pantalla se produce una perturbación del campo electrónico de la misma, que es lo que detecta el controlador.
A diferencia de las dos tecnologías anteriores, este tipo de pantallas requieren ser tocadas por el dedo para funcionar, y no pueden trabajar con objetos como, por ejemplo, los punteros. Las pantallas táctiles capacitivas no se ven afectadas por elementos externos y tienen una elevada claridad.
Infrarrojos: Las pantallas táctiles por infrarrojos consisten en una matriz de sensores y emisores infrarrojos horizontal y vertical, en cada eje los receptores están en el lado opuesto a los emisores, de forma que al tocar con un objeto la pantalla se interrumpe un haz infrarrojo vertical y otro horizontal, permitiendo de esta forma localizar la posición exacta en que se realizó el contacto. Estas pantallas son muy resistentes por lo que son utilizadas en muchas de las aplicaciones militares que exigen una pantalla táctil.
Galga Extensiométrica: La pantalla tiene una estructura elástica, de forma que se pueden determinar la posición en que ha sido tocada a partir de las deformaciones producidas en la misma. Esta tecnología también puede medir la presión ejercida sobre la pantalla.
Imagen Óptica: Es la técnica más moderna. Funcionan con emisores de infrarrojos y sensores de luz sitiados alrededor de la pantalla. Cuando se toca la superficie se produce una sombra que es detectada por un complejo sistema de triangulación, similar al de los teléfonos móviles.
Esta tecnología tiene la ventaja de que muestra gran precisión en la localización, detecta dos o más contactos a la vez y es capaz de recoger el movimiento de la zona de contacto. Además es una tecnología barata. Se utiliza mucho en el campo de las pantallas de gran tamaño.
Tecnología de Señal Dispersiva: Este sistema utiliza sensores para detectar la energía mecánica producida en el cristal debido a un toque. Se trata de una tecnología es muy resistente al polvo y a otros elementos externos, incluidos arañazos. Como no hay necesidad de elementos adicionales en la pantalla también proporciona unos excelentes niveles de claridad. Por otro lado, como el contacto es detectado a través de vibraciones mecánicas, cualquier objeto puede ser utilizado para detectar estos eventos, incluyendo el dedo o agujas.
Reconocimiento de Pulso Acústico: Introducida en el año 2006, estos sistemas utilizan cuatro transductores piezoeléctricos (dispositivos capaces de transformar la energía de un estado a otro) situados en cada lado de la pantalla para convertir la energía mecánica del contacto en una señal electrónica.
Tiene la ventaja de que no necesita ninguna malla de cables sobre la pantalla y que la pantalla táctil es de hecho de cristal, proporcionando la óptica y la durabilidad del cristal del que está fabricada. También presenta las ventajas de funcionar con arañazos y polvo sobre la pantalla, de tener unos altos niveles de precisión y de que no necesita ningún objeto especial para su utilización.

Tabletas gráficas, no sólo para diseñadores

Las tabletas gráficas pueden ser una alternativa al ratón para todo tipo de usuarios
No sólo sirven para hacer el trabajo más cómodo a los diseñadores; todos los usuarios les pueden sacar provecho. Este tipo de elementos para comunicarse con el ordenador se revelan como una herramienta útil para la edición de fotografías, vídeos y gráficos, así como para la digitalización de notas tomadas a mano. Tienen, además, la ventaja de que ofrecen una mayor precisión en estas tareas que el uso de un ratón convencional.
del ratón ayuda a los usuarios a moverse y ejecutar ordenes a los diversos programas del ordenador. Sin embargo, su uso se queda corto cuando se necesita obtener una mayor precisión en el toque, como es el caso de la edición de elementos gráficos y multimedia. En estos casos, la tableta gráfica puede ser la solución.
¿Qué son?
La tableta gráfica es un periférico que consta principalmente de una tabla de diferentes tamaños, aunque los más extendidos están entre un A6 y A3, y de un lápiz óptico que permite escribir y dibujar sobre la tabla, reflejando el resultado en la pantalla.
Según un estudio, las tabletas gráficas serían más ergonómicas que el ratón, ya que reducen la tensión muscular en los antebrazos y mano
Las tabletas son sensibles a la presión e inclinación ejercida por el lápiz óptico. La resolución de la tableta es uno de sus aspectos más importantes, ya que a mayor resolución, se pueden realizar trazos más precisos.
La instalación es muy sencilla: basta con conectar la tableta al puerto USB del ordenador y ejecutar un software de instalación que puede venir de fábrica en un CD o bien descargarse de Internet.
Según un estudio (PDF) financiado por Wacom, uno de los principales fabricantes de tabletas, quedaría demostrado que las tabletas gráficas son más ergonómicas que el ratón, ya que reducen la tensión muscular en los antebrazos y manos en usuarios que se pasan muchas horas delante de un ordenador.

FLAC, música digital con máxima calidad

Se trata de un formato de compresión sin perdida, que se populariza gracias a la banda ancha y a los discos duros de mayor capacidad
¿Es hoy por hoy el MP3 la única forma para compartir música online? Se trata de un formato que si bien comprime bastante los archivos de audio, en este proceso pierde calidad. La realidad es que existen alternativas para reducir el espacio que ocupan los archivos pero sin perder nada de fidelidad, con el fin de obtener el mismo sonido que en el disco original, y una de ellas es FLAC. El progresivo aumento del ancho de banda y la mayor capacidad de los discos duros podrían jugar a su favor
el acrónimo en inglés de un formato de compresión sin pérdida cuyas siglas corresponden a 'Free Lossless Audio Codec'. La gran baza de este tipo de formatos de compresión respecto al popular MP3 o los extendidos en tiendas que venden descargas de canciones (AAC o WMA) consiste en que logran reducir el tamaño del archivo sin que se pierda absolutamente nada de calidad, como si se tratara de un ZIP o un RAR especialmente ideado para la música.
Es decir, si se emplea FLAC, después se obtienen todos los datos del original, con el mismo sonido del disco genuino. De esta manera, el usuario se olvida de la pérdida de calidad (casi imperceptible para oídos no entrenados, en caso de que se codifique bien) que conllevan el MP3 y sus sucesores.
Varios grupos musicales han apostado por este formato como una alternativa para distribuir sus trabajos, como por ejemplo Pearl Jam o Metallica
FLAC (que es software libre) se encuentra cada vez más presente en las redes de intercambio P2P y en los foros especializados en música. Al mismo tiempo, varios grupos musicales han apostado por este formato como una alternativa para distribuir sus trabajos. Por ejemplo Pearl Jam o Metallica, que graba todos sus conciertos para luego venderlos por la web.
Incluso, sitios como Archive.org o algunas radios en Internet, ponen diverso material sonoro a disposición de sus usuarios de forma gratuita en formato FLAC.
Un formato de mucho peso
Por supuesto, el principal inconveniente del uso del FLAC radica en el espacio que ocupa un archivo en este formato. A pesar de que sus creadores defiendan que en tareas de compresión y descompresión de los archivos es el más rápido de su categoría, y a que, según sus datos, consiga una reducción de alrededor del 50% del espacio de la canción original, el resultado 'pesa' bastante más que los MP3.
El principal inconveniente del uso del FLAC radica en el espacio que ocupa un archivo en este formato
Así, sí se toma como referencia una canción comprimida en MP3 de 5 minutos, su tamaño variará entre los 4,6 Megabytes y los 11,5 Megabytes, en función de la tasa de kilobits por segundo (lo que se conoce como 'bit rate') con la que se codifique (entre 128 kilobits por segundo, el mínimo para conseguir un sonido similar al CD, y 320 kbps, el máximo de calidad de este formato). Sin embargo, el mismo archivo comprimido en FLAC supera los 35 Megabytes.
Calidad o compresión
Por esta razón, cada usuario debe calibrar si apuesta por la compresión del MP3 y derivados o por la calidad del FLAC. Por un lado, si se usa MP3 el usuario podrá almacenar un número mayor de canciones en su disco duro y al mismo tiempo garantizarse la portabilidad, porque la mayor parte de los reproductores portátiles permiten el uso de música comprimida.
Todavía no se trata un formato estándar para los reproductores portátiles
Por el otro lado, el formato FLAC asegura una escucha idéntica al disco original, para alegría de los melómanos más exigentes, y también una forma de realizar una copia de seguridad completamente idéntica, útil si el disco se daña.
Ahora bien, todo ello a cambio de reducir la capacidad de almacenamiento del disco duro y con una movilidad de los archivos mucho menor, porque todavía no se trata un formato estándar para los reproductores portátiles.
¿Cómo escuchar FLAC?
Para escuchar un archivo FLAC en el ordenador se debe añadir un complemento a los reproductores multimedia habituales (Windows Media Player) o decantarse por aquellos que son capaces de leerlo de forma nativa, como por ejemplo VLC Media Player o Winamp. Si se desea escuchar el formato en dispositivos portátiles, en el mercado ya existen reproductores que lo admiten, como el Rio Karma o el Cowon iAudio, por citar dos de una veintena de aparatos capaces. Incluso los más avanzados pueden instalar un firmware que permite que los iPod puedan reproducirlo, aunque a riesgo de perder la garantía de Apple sobre el aparato.
Así mismo, también existen equipos de sonido ideados para el hogar e, incluso, equipos para el coche que aceptan FLAC, por lo que es previsible que por tratarse de un formato de software libre, se implemente pronto en otros dispositivos.
Algunos equipos de sonido ideados para el hogar, e incluso para el coche, aceptan FLAC
Por otra parte, se debe tener en cuenta que FLAC se puede encontrar también dentro del contenedor de archivos Ogg, un formato de código libre, que como FLAC, también desarrolla y apoya la Fundación Xiph, una entidad sin ánimo de lucro que promueve la adopción del software libre en el multimedia.
Ogg FLAC está más orientado a la edición de audio y vídeo, por lo que los archivos ocupan más espacio que en el FLAC estándar. En el caso de que se quieran convertir las canciones de los discos compactos a FLAC, existen diversos programas que lo realizan automáticamente.

Wednesday, October 10, 2007

Toshiba y B&J presentan solución que transmite emociones

Toshiba y B&J presentan solución que transmite emocionesherramienta consigue reproducir risas, llantos, gritos, canciones, etc. de forma real.
Diario Ti: Toshiba conjuntamente con B&J Adaptaciones –empresa especializada en productos y servicios para personas con discapacidad-, presentarán en SIMO 2007 una innovadora solución que facilita la comunicación a personas con algún tipo de dificultad para expresarse, denominada B&J HERMES y cuyos soportes informáticos son el portátil Portégé R500 de Toshiba.
B&J HERMES permite a las personas con discapacidad escribir un texto en un teléfono móvil, una agenda electrónica o un ordenador portátil y luego reproducirlo cuando desee con una voz natural.
Además de la naturalidad de las voces sintéticas, esta herramienta consigue, incluso, expresar emociones. Puede reproducir risas, llantos, gritos, canciones, etc. de forma real.
Otra de las características de esta solución radica en su adaptabilidad, es decir, es un sistema que va aprendiendo del usuario y mejora la capacidad de comunicación con su uso.
Su diseño modular se adapta a las necesidades de los diferentes grados de discapacidad de cada persona. B&J HERMES puede igualmente ser utilizado por personas con extremas dificultades motrices mediante teclados especiales o sistemas de control basados en el soplido o el movimiento de los ojos.Además de estas características Toshiba y B&J Adaptaciones han integrado esta solución en el nuevo portátil ultraligero Toshiba Portégé R500 y en el teléfono PDA inteligente Portégé G900.
Ambos aportan a la solución la ergonomía necesaria para facilitar su uso en cualquier momento por parte de las personas discapacitadas con problemas en el habla.

El sistema operativo Leopard requiere usar computadoras nuevas

El sistema operativo Leopard requiere usar computadoras nuevas
Si su computadora Macintosh tiene una antigüedad mayor que cinco años, es muy difícil que vaya a funcionar con el sistema operativo de Apple, OS X Leopard.
Diario Ti: Al parecer, G4 es demasiado anticuado para el nuevo sistema operativo de Apple. Según fuentes anónimas consultadas por Apple Insider, el nuevo producto será lanzado durante el mes de octubre, conforme al plan original de lanzamiento. Según trascendió, Apple ha incrementado los requisitos de hardware necesario para ejecutar el programa satisfactoriamente. Los usuarios que deseen ejecutar Leopard OS X deberán contar al menos con un procesador de 867 MHz, 512 MB en RAM, 9 GB de espacio disponible en disco, reproductor DVD y Firewire.
Lo anterior implica que computadoras como Power Book G4 Titanium, PowerMac G4 Quicksilver, iMac G4, iBook G4 y eMac a 800 MHz no podrán ser usadas. La causa de las especificaciones incrementadas para el sistema es que en las pruebas realizadas tomó mucho tiempo ejecutar Leopard OS X en las antiguas computadoras Macintosh. La información, aunque no confirmada, hace surgir especulaciones en el sentido de que el nuevo sistema operativo de Apple dejará definitivamente en la obsolescencia a las antiguas computadoras Macintosh. Las computadoras basadas en procesadores de Intel han estado en venta desde 2006

Monday, October 08, 2007

red Wi-Fi



Qué se necesita para conectar las computadoras hogareñas en forma inalámbrica. Los routers y las antenas para la PC y la notebook. La importancia de abrir o cerrar el hotspot caseroLunes 8 de octubre de 2007




Tener una red inalámbrica en casa nos permite conectar varios equipos (una PC, una notebook, una palmtop, etcétera) sin tener que poner cables por toda la casa, y es relativamente sencillo construirla. Se necesita, en principio, una antena transmisora que brinde el servicio, y otra en cada dispositivo que quiera conectarse. Esa antena transmisora será la que deba estar conectada a un proveedor de Internet, si se quiere compartir el acceso. Wi-Fi es una tecnología para unir computadoras sin recurrir a cables; Internet es uno de los tantos servicios que pueden compartirse por esa red. Hoy, sin embargo, es casi automático agregar una conexión a la red de redes en el servicio Wi-Fi, ya que es muy conveniente si tenemos más de una PC o queremos independizar la computadora de una ubicación específica (al lado del teléfono o de la entrada de cable) y navegar o compartir archivos con otro equipo de la casa sin necesidad de pasar cables por todos lados. En un caso así el centro de la red estará donde esté la conexión de banda ancha a Internet (el módem ADSL o el cablemódem). Tenemos dos opciones. Una es comprar un módem inalámbrico; es decir, reemplazar el equipo provisto por el ISP por otro que suma dos funciones en una misma carcasa: módem de banda ancha y antena Wi-Fi, necesario si el módem sólo ofrece un puerto USB. Si tiene un puerto Ethernet, se puede conectar a un router Wi-Fi, un equipo capaz de transformar esa conexión que llega por el cable de teléfono o de televisión en una onda de radio que será captada por las antenas Wi-Fi de los demás equipos (PC de escritorio, notebook, palmtop, teléfono móvil, etcétera). Los ruteadores suelen incluir, además, puertos Ethernet. Así, si tenemos una desktop al lado del módem y queremos dar conectividad Wi-Fi a una notebook, no es necesario poner una antena al equipo de escritorio: basta con conectarlo con un cable de red común al router, y dejar para la notebook el uso de Wi-Fi. Los equipos disponibles hoy en el país son compatibles con los estándares b y g de Wi-Fi: el primero tiene una velocidad de 11 Mbps (megabit por segundo), el segundo de 54 Mbps. Hay un tercer estándar en danza, el n , que será capaz de ofrecer varias conexiones simultáneas de unos 100 Mbps, y duplica el radio de alcance de la señal de los estándares anteriores hasta cubrir 70 metros. Estas son mediciones de laboratorio, por supuesto; en la práctica, el alcance se reduce por la interferencia que generan paredes, techos, el follaje, y la que puedan producir otros equipos. Los modelos que se venden en el país con la norma n usan una versión provisional; en marzo próximo, cuando esté estandarizada la versión final de ese estándar, se actualizará su software interno. Armar la red inalámbrica hoy es algo bastante simple: el router inalámbrico funciona como punto de acceso ( access point , en inglés) a Internet y como punto de interconexión para la red interna del hogar. Los dispositivos que quieran usarla deberán conectarse a él de la misma manera que se conectarían a un hotspot en un cibercafé. Es decir, activando la antena en la notebook o palmtop, buscando la señal y conectándose a la red. En el caso de Windows XP, al activar la antena aparecerá un asistente (una ventana o como un icono en la bandeja de sistema) que listará las redes disponibles para conectarse. Las notebooks pueden usar la antena que vino con el equipo, o modelos que se conectan a un puerto USB o PCMCIA. Una desktop usa una placa PCI o USB; algunos motherboard incluyen también una antena Wi-Fi.

El router puede configurarse para que ofrezca determinados servicios, usando un software incluido en el CD de instalación o por una interfaz Web. Allí podrá definirse si la red deberá usar una configuración DHCP (la que usan los ISP hogareños), que asignará una dirección IP automáticamente a cada dispositivo de la red. También allí se definirá el SSID, un nombre distintivo para la red que la diferencia de otras, y se la dejará cerrada o abierta. En este último caso, cualquiera que esté en su área de cobertura puede conectarse a la red, ver los archivos compartidos y usar Internet; si está cerrada, sólo los que tengan una clave podrán usarla. La clave debe ser de tipo WPA (Wi-Fi Protected Access), pero no todos los equipos la admiten; si la antena de la PC o la palmtop es algo vieja sólo será compatible con el sistema de encriptación WEP, menos seguro que WPA (pero que igual hay que usar). Algunos modelos de routers permiten, además, esconder la señal (no hacer broadcasting, en la jerga informática) y limitar las conexiones sólo a determinados dispositivos identificándolos por el número de serie MAC de su antena Wi-Fi. Si se cambia el equipamiento de red del equipo habrá que habilitar el número nuevo, ya que es único de cada antena. Algunos routers pueden definir cuotas de acceso a Internet, permitiendo al usuario definir que un equipo determinado (la PC del cuarto de los chicos, por ejemplo) tenga un límite al ancho de banda que puede ocupar en determinado momento del día. La alternativa es armar un proxy con una PC vieja: un intermediario que, justamente, fiscaliza qué hace cada miembro de la red con la conexión a Internet. No es una tarea sencilla, pero tampoco imposible. Quienes quieran experimentar un poco pueden apelar a una distribución como Linux LiveCD Router ( http://www.wifi.com.ar/ ) para usar en una PC que se conecte en forma directa al módem y que tenga una segunda conexión de red para el router Wi-Fi, o tenga una antena propia (USB o PCI) capaz de funcionar en modo Ad-hoc (que hace de la antena un transmisor principal en vez de un receptor). También se puede crear un proxy en una PC con Windows y usar programas freeware como Proxy ( www.analogx.com/contents/download/network/proxy.htm ) o FreeProxy ( http://www.handcraftedsoftware.org/ ), pero requerirán de algo de tiempo y conocimientos técnicos para configurarlos correctamente. Quienes tengan un espíritu samaritano pueden dejar la conexión de su red inalámbrica abierta para que otros puedan conectarse; la idea es que si todos los dueños de una red Wi-Fi hacen lo mismo, cuando alguien viaja podrá obtener acceso gratis a Internet. En el caso de redes Wi-Fi fijas que estén próximas físicamente podría ir creándose una red ciudadana como la que propulsan los fundadores de Buenos Aires Libre ( http://buenosaireslibre.org/ ), o FON, la red que fundó el argentino Martín Varsavsky y que tiene presencia en todo el mundo. Como aquí el acento está puesto no sólo en brindar servicio dentro de nuestro hogar, sino hacia afuera, muchos usuarios han investigado el uso de antenas direccionales (comerciales o de fabricación casera, como las que se comentan en www.paramowifix.net/antenas/EnlacesAntenas.html ) para extender el alcance de su red inalámbrica hogareña.

Tuesday, October 02, 2007

Cómo será el primer Service Pack para Windows Vista

Incluye mejoras para hacerlo más ágil y seguro, y lograr que consuma menos recursos. Se llevará mejor con las portátiles. En la Web ya está Windows Live Suite, que ofrece herramientas de Vista, pero en XP
Si todo sigue como está previsto, en el primer trimestre del año próximo estará listo el primer service pack de Windows Vista, un enorme conjunto de actualizaciones de software, parches que corrigen errores, ajustes cosméticos y algunas nuevas funciones. Los primeros Service Pack (SP) aparecieron, en el mundo de Microsoft, con Windows NT, y siguieron con 2000, que tuvo cuatro, y XP, que tuvo dos. Pero en Microsoft advierten que no debe esperarse el mismo tipo de impacto en estas actualizaciones, ya que la empresa apuesta más a la herramienta Windows Update para mantener al día los equipos que a la instalación de un único archivo ejecutable. Aun así, el Service Pack es una buena opción para poner al día, de un tirón, un equipo nuevo, y sumar algunas nuevas funciones. El 24 de septiembre último comenzó a circular entre unos 15.000 usuarios la versión beta del Service Pack; de aquí a fin de año se verá qué cosas funcionan bien y cuáles requieren un poco más de trabajo, y se hará una versión previa pública, para liberar la versión final en el primer trimestre de 2008. Se espera que la descarga de las actualizaciones incluidas en el SP1 vía el Windows Update, en un equipo más o menos actualizado, no sea de más de 50 MB, aunque podría llegar a los 680 MB. Pero si alguien quiere descargar el SP1 de Vista en una computadora e instalarlo en otra (en una pyme, o porque se cuenta con una mejor conexión a la Red), el archivo final rondará el gigabyte, ya que se incluyen todos los idiomas en los que está traducido el sistema operativo. Y será necesario tener entre 7 y 12 GB libres en el disco rígido para alojar archivos temporales al realizar la instalación, según se trate de una versión de 32 o 64 bits; luego ese espacio de disco será liberado. Nuevos elementos Quizás el cambio más conspicuo que ofrecerá el SP1 de Vista será la desaparición de la caja de búsqueda global en el menú Inicio . El buscador sigue presente, pero Microsoft tuvo que modificarlo para que acepte motores de terceros, después de que Google denunció ante la Justicia de Estados Unidos que el diseño de Vista dificultaba la integración con sus productos. En el Desfragmentador será posible elegir qué disco será ordenado, lo mismo que con BitLocker , la aplicación que permite encriptar discos en Vista (no está presente en todas las versiones): antes lo hacía sólo con el volumen en que está instalado Vista. Los usuarios deberían, además, notar una mayor agilidad a la hora de copiar archivos entre carpetas, al acceder a documentos almacenados en un disco de red, al navegar usando Internet Explorer 7 y al iniciar su sesión en el equipo, ya que optimizaron todos los procesos involucrados. La seguridad interna del sistema operativo también será mejorada, ofreciendo una mayor protección del kernel y permitiendo a los desarrolladores de aplicaciones de seguridad una mejor integración con Vista. Quienes tengan este sistema operativo instalado en una notebook deberían notar una leve mejoría en la duración de la batería, ya que se redujo el uso del CPU, además de corregir algunos problemas que había con las funciones de hibernación. En términos de compatibilidad, el próximo Service Pack de Vista mejora el manejo de pantallas externas para notebooks y agrega 700.000 nuevos drivers, llevando el total a 2,2 millones. A la vez, se agrega soporte para tecnologías y estándares como exFAT, el nuevo sistema de archivos para discos removibles de memoria flash, SD DMA, un servicio para mejorar la transferencia de archivos a tarjetas SD, o DirectX 10.1, la más reciente versión del conjunto de bibliotecas multimedia del sistema operativo. En el blog oficial del equipo de Vista ( http://windowsvistablog.com/blogs/windowsvista/pages/windows-vista-service-pack-1-beta-whitepaper.aspx ) hay más detalles sobre los cambios. Vista en XP Muchos usuarios hogareños y corporativos esperan la llegada del Service Pack para hacer su migración al nuevo sistema operativo. Mientras, la compañía liberó una versión de prueba de su Windows Live Suite ( get.live.com/wl/all ), una suerte de respuesta al Google Pack ( pack.google.com ). Es compatible con Windows XP y mezcla el acceso a algunos servicios en línea (Hotmail, el disco virtual SkyDrive, el blog Spaces) con algunas herramientas freeware ya presentes en Vista, como Windows Live Mail , un reemplazo del Outlook Express muy parecido al cliente de correo de Vista, la Galería Fotográfica , una aplicación de administración de imágenes que, igual que la versión presente en Vista, incluye herramientas básicas de edición y etiquetado de fotos, y la versión 8.5 del Messenger . Quienes estén interesados en tener una interfaz similar a Vista en XP, incluyendo iconos, sombras y transparencias, y agregar un lanzador al estilo del OS X, pueden descargar el Vista Transformation Pack de www.windowsxlive.net/?page_id=15 . Hay que tener en cuenta que no es una herramienta oficial y que se estarán modificando componentes básicos del sistema operativo que podrían volverlo inestable. Por su parte, el freeware Shock Aero ( www.docs.co.kr ) permite tener en XP una herramienta similar al Flip 3D de Vista, el visor tridimensional de ventanas abiertas.

Estás compartiendo

En estos últimos años ha crecido la popularidad de las redes de intercambio P2P. Mientras unos buscan sus archivos favoritos, otros persiguen el control de los ordenadores conectados.

Para muchos, poder encontrar su música predilecta en Internet y descargarla en cuestión de minutos, es algo muy tentador. No solo se pueden encontrar los temas más escuchados en la radio, sino también videos, películas, imágenes o libros de casi cualquier tema.
Es relativamente sencillo para un cibercriminal infectar un archivo o crear un malware, y darle un nombre que capte la atención de los usuarios, puede ser la canción más buscada en la red o el video porno de una estrella de cine. Al intentar abrirlo, la amenaza infecta el ordenador comprometiendo todo el sistema, los datos existentes y posiblemente los futuros.
Estos riesgos son bien conocidos por los usuarios de estos programas de intercambio, como también por los atacantes. Éste método de infección se mantiene en un lugar alto dentro de las estadísticas.
Los internautas no prestan la debida atención a otro riesgo existente, la fuga accidental de información, lo que puede traerles más problemas que una infección.
Lo único necesario es un "clic" en el lugar equivocado y todo el disco duro estará compartido, permitiendo que cualquiera acceda al historial del navegador, documentos personales, o sus mensajes de correo.
Algunos servidores que brindan una conexión directa, requieren un mínimo de archivos compartidos para acceder al mismo. Esto significa que si el usuario desea descargar archivos de otras personas que estén conectadas a ese servidor, debe compartir una cierta cuota de archivos que puede llegar a tener desde 5 GB hasta 20 GB.
Antes de pasar mucho tiempo descargando gran cantidad de música para alcanzar dicha cuota, algunos optan por compartir todo el disco duro en forma deliberada. Esto les permite artificialmente inflar la cuota compartida, y de esta manera se pueden conectar a servidores exclusivos. Esto expone gran cantidad de información que puede ser utilizada con intenciones maliciosas.
Las consecuencias de este tipo de errores voluntarios e involuntarios, puede ser realmente devastadora si las bases de datos conteniendo mensajes o el historial del navegador son expuestos. Y mucho más si pertenecen a una empresa de gran tamaño o una corporación. El personal de la compañía posiblemente guarde documentos, archivos, códigos fuente de programas que no han salido al mercado, y mucha otra información confidencial.
Desde el punto de vista de una organización, una fuga de datos puede representar grandes pérdidas. La competencia puede utilizar la información obtenida para llegar antes al mercado con un determinado producto, o que un cibercriminal obtenga datos confidenciales para utilizarlos, por ejemplo en un phishing.
Aunque la mayoría de las empresas bloquea el uso de programas P2P, tal vez los empleados se conecten desde su propia casa con la misma laptop que utilizan en su trabajo, a los efectos de descargar cualquier fichero mediante su programa favorito.
Sería extremadamente difícil, si fuera posible, encontrar y procesar a la persona que robó la información. Puede ayudar si el servidor de intercambio de archivos o la aplicación cliente mantiene un registro de los archivos descargados. También se pueden obtener datos si el ordenador con los mismos tiene un software para detectar intrusiones (IDS - Intrusion Detection System), que registre la fuga de información. Pero aún cuando se lograra encontrar al atacante, sería difícil imputarle cargos debido que él o ella simplemente estaban utilizando el programa para intercambiar archivos.
Una situación más problemática es cuando el usuario utiliza un programa que es vulnerado por un atacante, permitiéndole revisar carpetas que no están siendo compartidas, y descargar archivos desde cualquier parte del disco duro al suyo.
Se recomienda no utilizar programas que permitan el intercambio de archivos en ordenadores que contengan cualquier tipo de información ya sea personal, financiera o laboral.
El tener un antivirus actualizado y activo es un requisito inapelable.

.

Hay disponibles nuevos protocolos para proteger las redes inalámbricas, sin embargo aún se pueden encontrar señales vulnerables mediante un ataque o simple acceso.
Las señales emitidas por un nodo o un router de forma inalámbrica, pueden ser codificadas de forma automática, dependiendo del dispositivo emisor y el software que el fabricante incluyó en materia de seguridad.
La mayoría de los emisores en el mercado incluían el cifrado utilizando WEP (Wired Equivalent Privacy), el cual ha sido superado por WPA (Wi-Fi Protected Access) o WPA2. Los más nuevos están incluyendo ya uno de ellos o en algunos casos, los tres.
El protocolo WEP es sumamente usado por lo simple y compacto de su implementación en las WLAN (Wi-Fi LAN, Redes inalámbricas). Trabaja con el codificador RC4 y una clave secreta, la cual es introducida en cada paquete a transmitir, para luego ser cifrado y enviado.
Un ataque llamado "aircrack-twp", descrito por los investigadores Tews, Weinmann y Pyshkin, puede ser llevado a cabo en menos de 60 segundos. Utilizado en las redes que utilizan WEP como cifrado, consiste en capturar los paquetes transmitidos y compararlos para encontrar la clave secreta en uso.
La debilidad existente entre el cifrado RC4 y la clave secreta, es altamente aprovechada por el atacante, que solo precisa estar "escuchando" la emisión inalámbrica de la red.
Un experto comenta que es increíble la cantidad de usuarios que siguen utilizando WEP, aún cuando se ha demostrado lo vulnerable que es. Para explicarse mejor habló de un amigo suyo que ni siquiera tenía idea si su red inalámbrica estaba cifrada o no, alguien se la instaló y no le preocupó nada más.
Al investigar el edificio donde vivía su amigo, pudo comprobar que había 15 redes más con WEP y 3 de las mismas no tenían implementado ningún sistema de seguridad, incluso una delataba su localización que era el nombre de la red.
"Puedo entender el porqué algunas personas piensan que usar WEP ofrece una buena seguridad para su WLAN, ellos creen que tener alguna encriptación es mejor que ninguna", agrega el experto.
Lo más preocupante según sus consideraciones, es la falta de conciencia en algunas empresas que recomiendan a los usuarios que no se preocupen de los ataques cibernéticos que puedan ser montados por personas sin conocimientos.
Un ataque es un ataque y no importa quien lo realice. Debe considerarse como una amenaza no solo para el usuario, sino también para el ordenador y los datos que contiene.
Implementar un protocolo más avanzado de cifrado para los elementos de una WLAN y cambiar las contraseñas de forma regular, aumenta la seguridad del sistema. También lleva a ahorrar tiempo y recursos antes que surjan muchos problemas por la falta de ella.
Siempre es aconsejable seguir una conducta con respecto al tema de seguridad informática. Si evitamos dejar la llave de la casa bajo la alfombra de "Bienvenida" o la maceta cercana, tampoco debemos dejar vulnerable la red personal ya que en ambos casos estamos "invitando" justamente a quien no deseamos.

Hotmail

Existen numerosos ejemplos de bulos relacionados con el servicio de correo electrónico gratuito Hotmail. Algunos de ellos anuncian que el sistema tendrá un costo a partir de cierta fecha, y otros intentan obtener información personal de los usuarios, como sus datos de ingreso a Hotmail.
El formato del mensaje varia, pero su intención es siempre la misma: hacer caer al usuario en algún engaño. La mayoría le piden su contraseña, clamando que la han perdido; otras veces solicitan lo mismo, pero para reactivar la cuenta. En casi todas las ocasiones son armados para que parezcan provenir de Hotmail, cuando en realidad no es así. Para evitar esto, los responsables de Hotmail diferencian sus mensajes del resto mediante la inclusión del icono de MSN en los correos no leídos de la Bandeja de Entrada
Esto fue anunciado por el propio “personal de Hotmail” en la primer semana de Mayo, en un mensaje que decía, entre otras cosas, lo siguiente:
---------- Comienzo ----------
¿Te has dado cuenta de que el icono de la nueva mariposa de MSN está en tu bandeja de correo electrónico? Todos los correos electrónicos de los servicios miembro de Hotmail ahora están marcados con este icono. Esto te ayudará a distinguir nuestros correos electrónicos de aquellos que afirman ser nuestros.
-------------- Fin ---------------
Si el mensaje recibido no tiene este icono, pero dice provenir de Hotmail o MSN, no debes hacerle caso y eliminarlo directamente de tu Bandeja de Entrada para evitar confusiones y problemas. Algo importante: una vez leído el mensaje, por más que provenga de Hotmail, no se mostrará el icono, por lo que es recomendable que si tienes una duda sobre algún correo que hayas recibido lo selecciones y elijas la opción “Marcar como no leído”. De esta manera, si el mensaje realmente proviene de Hotmail, el icono volverá a mostrarse.

Los mensajes en Gmail son vulnerables

Las cuentas de Gmail pueden ser leídas por un atacante, sin la necesidad de tener los datos confidenciales necesarios para el acceso.
Gmail es un proveedor de correo electrónico gratis perteneciente a la compañía Google Inc.
Petko Petkov, investigador de vulnerabilidades en el Reino Unido, ha informado de un fallo de seguridad existente en el servicio de correos de la mencionada empresa.
"Es posible insertar un código malicioso en una cuenta que se encuentra abierta," nos comenta. Mediante el mismo comando que utiliza Gmail para subir archivos, un atacante podría ser capaz de subir un filtro con instrucciones específicas y obtener lo que se encuentre guardado allí.
Un filtro, puesto a modo de ejemplo, enviaba todos los mensajes con archivos adjuntos a otra cuenta. Mientras la regla no sea borrada, seguirá estando activa y enviando mensajes al cibercriminal.
La vulnerabilidad puede ocurrir cuando un usuario visita un sitio web malicioso, y su correo de Gmail se encuentra abierto en otra ventana del navegador.
Google ha confirmado el fallo y dice estar trabajando en una solución a corto plazo.
Expertos concuerdan en que las cuentas de correo mediante web representan un tesoro para los ciberdelincuentes, esto es debido a que los usuarios guardan información financiera y en muchos casos datos que permiten el acceso a otros sitios.
Se recomienda no dejar el correo de Gmail abierto mientras se navega por Internet.

Monday, September 24, 2007

¿cómo Funciona un a Impresora?

Impresora
Como indica su nombre, la
impresora es el periférico que la computadora utiliza para presentar información impresa en papel u otro medio. Las primeras impresoras nacieron muchos años antes que la PC e incluso antes que los monitores (el otro dispositivo de salida por excelencia), siendo durante años el método más usual para presentar los resultados de los cálculos en aquellas primitivas computadoras, que previamente usaban tarjetas y cintas perforadas.
Conceptos básicos
Definiremos aquí conceptos que serán usados con frecuencia durante el
desarrollo de la investigación.
Velocidad
La
velocidad de una impresora suele medirse con el parámetro ppm (páginas por minuto), aunque el cálculo es confuso porque no hay una norma oficial que deba ser respetada, nunca se aclara el momento en que se oprime el cronómetro (cuando la impresora toma la primera hoja o cuando se le ordena imprimir), tampoco se especifica la fuente o la complejidad de los gráficos impresos.
Como norma, debemos considerar que el número de páginas por minuto que el fabricante dice que su impresora imprime, son páginas con el 5 % de superficie impresa, en la
calidad más baja, sin gráficos y descontando el tiempo de cálculo de la computadora.
Otro parámetro que se utiliza es el de cps (caracteres por segundo) adecuado para las
impresoras matriciales que aún se fabrican.
Calidad de impresión
Uno de los determinantes de la calidad de la impresión realizada, es la resolución o cantidad de dpi (dots per inch) o en
español, ppp (puntos por pulgada). Utilizaremos aquí el primero por ser el de uso más extendido. Una resolución de "300 dpi" se refiere a que en cada pulgada (2.54 cm) cuadrada, la impresora puede situar 300 puntos horizontales y 300 verticales. Si nos encontramos con una expresión del tipo "600 x 300 dpi" , el primer valor se asume a la línea horizontal y el segundo a la vertical.
Otro determinante de la calidad de impresión es el del número de niveles o graduaciones que pueden ser impresos por punto, una técnica de capas de
color que hace que la oscilación en los gráficos y fotografías sea más difícil de ver, e incluso invisible a simple vista. Las impresoras sin niveles de impresión por punto, imprimen cada punto de color en una de sólo dos intensidades (encendido o apagado), con tinta cian, magenta, amarilla o negra. Pueden combinarlas para crear tintas roja, verde y morada, y pueden crear la ilusión de otros colores al distribuir puntos de distintos colores en el papel (cada color se logra siguiendo un patrón determinado). La impresión de multinivel hace posibles más intensidades para cada punto que se imprime, así permite que la impresora utilice menos puntos para crear colores esfumados y hace que sea más difícil ver los patrones.
En la práctica las impresoras eligen una de las dos. Algunas optan por resolución más alta y otras por más niveles por punto, según el uso pensado para la impresora. Profesionales de las artes
gráficas, por ejemplo, que están interesados en conseguir calidad fotográfica, deben priorizar el número de niveles por punto, mientras que los usuarios de negocios generales requerirán una razonablemente alta resolución para conseguir una buena calidad de texto.
De cualquier modo, dos
máquinas con la misma resolución pueden ofrecer resultados dispares, porque hay que tener en cuenta el tamaño de las gotas que generarán esos puntos por pulgada y ésta varía según la tecnología empleada para llevar a cabo la impresión.
Las gotas de tinta tienen un tamaño diminuto y se miden en picolitros (1 picolitro es la billonésima parte de un litro)

Fuentes
El bitmap, es un
registro de patrón de puntos necesarios para crear un carácter específico en un cierto tamaño y atributo. Las impresoras traen consigo fuentes bitmap, en las variedades normal y negrita, como parte de su memoria permanente. Cuando se emite un comando de impresión, su PC dice primero a la impresora cual de las de las definiciones bitmap puede utilizar, entonces, por cada letra, signo de puntuación o movimiento del papel, envía un código ASCII.
Las fuentes Outline consisten en descripciones
matemáticas de cada carácter y signo de puntuación en un tipo. Algunas impresoras poseen un lenguaje de descripción de página, normalmente PostScript (programa de computadora contenido en un microchip).
El
lenguaje puede traducir comandos de fuente outline para controlar la colocación de los puntos en un papel.
Cuando se emite un comando de impresión desde el
software de aplicación a una impresora, envía una serie de comandos en lenguaje de descripción de páginas que son interpretados a través de un conjunto de algoritmos. Los algoritmos describen las líneas y arcos que forman los caracteres en un tipo de letra. Los comandos insertan variables en las fórmulas para cambiar el tamaño o atributos. Los resultados son enviados a la impresora, quien es la que los interpreta. En lugar de enviar los comandos individuales para cada carácter en un documento, el lenguaje de descripción de página envía instrucciones al mecanismo de la impresora, que produce la página completa. (los lenguajes de descripción de página están desarrollados en el capítulo de impresoras láser).
Memoria
Las impresoras modernas tienen una pequeña cantidad de memoria (no tan pequeña en impresoras de
redes, que pueden llegar a tener varios Mb) para almacenar parte de la información que les va proporcionando la computadora.
De esta forma la computadora, sensiblemente más rápido que la impresora, no tiene que estar esperándola continuamente y puede pasar antes a otras tareas mientras termina la impresora su trabajo. Evidentemente, cuanto mayor sea el buffer, más rápido y cómodo será el
proceso de impresión, por lo que algunas impresoras llegan a tener hasta 256 Kb de buffer.
La interfaz o conector
Las
computadoras antiguas tenían un puerto en circuito para conectar un teletipo. Después los fabricantes empezaron a incluir puertos seriales, hoy el puerto paralelo es la conexión más común para impresora (LPT1 usualmente).A veces al puerto paralelo de una PC se le dice puerto Centronics, nombre de la empresa que lo dio a conocer. La tecnología de este puerto casi no ha cambiado, salvo que la interfaz original tenía un contacto de 36 patas y al actual emplea un contacto de 25 patas con escudo D (DB25). Esto se debe a que el nuevo contacto utiliza menos señales a tierra

¿cómo funciona un escaner?

Así funciona un escáner
1. El escáner es una de las herramientas fundamentales para introducir en internet imágenes realmente sorprendentes. Esta herramienta junto con un programa de retoque fotográfico son muy importantes para conseguir un sitio web moderno y estéticamente atrayente. Una definición simple de escáner podría ser la siguiente: dispositivo que permite pasar la información que contiene un documento en papel a un ordenador, para de esta manera poder modificarlo.
2. Este proceso transforma las imágenes a formato digital, es decir en series de 0 y de 1, pudiendo entonces ser almacenadas, retocadas o impresas o ser utilizadas para ilustrar un texto. Si el documento que se desea escanear es un texto, por medio de programas de reconocimiento de caracteres, también llamados por las siglas inglesas OCR (Optical Character Recognition), es posible reconstituirlo y convertirlo en texto reconocible por el ordenador, pudiendo ser corregido o añadir texto nuevo, es decir, nos evita tener que teclearlo.
3. El escaneado de una imagen se realiza con el barrido del documento por una fuente luminosa. Las zonas claras reflejan más luz que las partes oscuras. La luz reflejada se envía por un juego de espejos y a través de un objetivo hasta un sensor CCD el cual la convierte en señal eléctrica. En color, el mismo procedimiento es repetido tres veces, o bien son los tres chips o captores CCD los que analizan los tres haces luminosos separados previamente por un prisma y filtros rojos, verdes y azules. Los elementos CCD están colocados en una sola fila de forma que a cada elemento le corresponde un pixel de cada una de las filas de puntos que forman la imagen.
Un escáner de sobremesa incluye una fuente de alimentación, una lente, un dispositivo denominado CCD y uno o varios ADCs (convertidor analógico digital).
1. Parámetros para una elección correcta
o Definición Es la cualidad más importante de un escáner, es el grado de finura con el que se puede realizar el análisis de la imagen. Los fabricantes indican dos tipos de definición:
a. Óptica, que es la realmente importante, está determinada por el número de elementos CCD y la resolución de la lente. Se mide en puntos por pulgada.
b. Interpolada, que es el resultado de una serie de cálculos de difícil verificación.
o Profundidad de análisis de color Que se expresa en número de bits:
§ De 2 bits, resultaría una imagen en blanco y negro.
§ De 8 bits, se obtendría una imagen de 256 tonos de grises.
§ De 24 bits u 8 bits por componente de color (verde, rojo, azul), la imagen puede llegar a ser de 16,7 millones de colores.
§ De 30 bits, permite sobrepasar los mil millones de tintas.
Software Otro elemento a tener en cuenta es el software que acompaña al escáner. Muchos de ellos incorporan programas de gestión de textos y fotos, programas de reconocimiento de caracteres o programas de retoque fotográfico.
 Adaptación Es importante mirar la manera en que la cubierta del escáner se adapta al espesor de los distintos documentos que se vayan a escanear, como un libro grueso por ejemplo.Cómo funciona
El proceso de captación de una imagen resulta casi idéntico para cualquier escáner: se ilumina la imagen con un foco de luz, se conduce mediante espejos la luz reflejada hacia un dispositivo denominado CCD que transforma la luz en señales eléctricas, se transforma dichas señales eléctricas a formato digital en un DAC (conversor analógico-digital) y se transmite el caudal de bits resultante al ordenador.
El CCD (Charge Coupled Device, dispositivo acoplado por carga -eléctrica-) es el elemento fundamental de todo escáner, independientemente de su forma, tamaño o mecánica. Consiste en un elemento electrónico que reacciona ante la luz, transmitiendo más o menos electricidad según sea la intensidad y el color de la luz que recibe; es un auténtico ojo electrónico. Hoy en día es bastante común, puede que usted posea uno sin saberlo: en su cámara de vídeo, en su fax, en su cámara de fotos digital...
La calidad final del escaneado dependerá fundamentalmente de la calidad del CCD; los demás elementos podrán hacer un trabajo mejor o peor, pero si la imagen no es captada con fidelidad cualquier operación posterior no podrá arreglar el problema. Teniendo en cuenta lo anterior, también debemos tener en cuenta la calidad del DAC, puesto que de nada sirve captar la luz con enorme precisión si perdemos mucha de esa información al transformar el caudal eléctrico a bits.
Por este motivo se suele decir que son preferibles los escáners de marcas de prestigio como Nikon o Kodak a otros con una mayor resolución teórica, pero con CCDs que no captan con fidelidad los colores o DACs que no aprovechan bien la señal eléctrica, dando resultados más pobres, más planos.

La resolución
No podemos continuar la explicación sin definir este término, uno de los parámetros más utilizados (a veces incluso demasiado) a la hora de determinar la calidad de un escáner. La resolución (medida en ppp, puntos por pulgada) puede definirse como el número de puntos individuales de una imagen que es capaz de captar un escáner... aunque en realidad no es algo tan sencillo.
La resolución así definida sería la resolución óptica o real del escáner. Así, cuando hablamos de un escáner con resolución de "300x600 ppp" nos estamos refiriendo a que en cada línea horizontal de una pulgada de largo (2,54 cm) puede captar 300 puntos individuales, mientras que en vertical llega hasta los 600 puntos; como en este caso, generalmente la resolución horizontal y la vertical no coinciden, siendo mayor (típicamente el doble) la vertical.
Esta resolución óptica viene dada por el CCD y es la más importante, ya que implica los límites físicos de calidad que podemos conseguir con el escáner. Por ello, es un método comercial muy típico comentar sólo el mayor de los dos valores, describiendo como "un escáner de 600 ppp" a un aparato de 300x600 ppp o "un escáner de 1.200 ppp" a un aparato de 600x1.200 ppp; téngalo en cuenta, la diferencia es obtener o no el cuádruple de puntos.
Tenemos también la resolución interpolada; consiste en superar los límites que impone la resolución óptica (300x600 ppp, por ejemplo) mediante la estimación matemática de cuáles podrían ser los valores de los puntos que añadimos por software a la imagen. Por ejemplo, si el escáner capta físicamente dos puntos contiguos, uno blanco y otro negro, supondrá que de haber podido captar un punto extra entre ambos sería de algún tono de gris. De esta forma podemos llegar a resoluciones absurdamente altas, de hasta 9.600x9.600 ppp, aunque en realidad no obtenemos más información real que la que proporciona la resolución óptica máxima del aparato. Evidentemente este valor es el que más gusta a los anunciantes de escáners...
Por último está la propia resolución de escaneado, aquella que seleccionamos para captar una imagen concreta. Su valor irá desde un cierto mínimo (típicamente unos 75 ppp) hasta el máximo de la resolución interpolada. En este caso el valor es siempre idéntico para la resolución horizontal y la vertical, ya que si no la imagen tendría las dimensiones deformadas.

Los colores y los bits
Al hablar de imágenes, digitales o no, a nadie se le escapa la importancia que tiene el color. Una fotografía en color resulta mucho más agradable de ver que otra en tonos grises; un gráfico acertadamente coloreado resulta mucho más interesante que otro en blanco y negro; incluso un texto en el que los epígrafes o las conclusiones tengan un color destacado resulta menos monótono e invita a su lectura.
Sin embargo, digitalizar los infinitos matices que puede haber en una foto cualquiera no es un proceso sencillo. Hasta no hace mucho, los escáners captaban las imágenes únicamente en blanco y negro o, como mucho, con un número muy limitado de matices de gris, entre 16 y 256. Posteriormente aparecieron escáners que podían captar color, aunque el proceso requería tres pasadas por encima de la imagen, una para cada color primario (rojo, azul y verde). Hoy en día la práctica totalidad de los escáners captan hasta 16,7 millones de colores distintos en una única pasada, e incluso algunos llegan hasta los 68.719 millones de colores.
Para entender cómo se llega a estas apabullantes cifras debemos explicar cómo asignan los ordenadores los colores a las imágenes. En todos los ordenadores se utiliza lo que se denomina sistema binario, que es un sistema matemático en el cual la unidad superior no es el 10 como en el sistema decimal al que estamos acostumbrados, sino el 2. Un bit cualquiera puede por tanto tomar 2 valores, que pueden representar colores (blanco y negro, por ejemplo); si en vez de un bit tenemos 8, los posibles valores son 2 elevado a 8 = 256 colores; si son 16 bits, 2 elevado a 16 = 65.536 colores; si son 24 bits, 2 elevado a 24 = 16.777216 colores; etc, etc.
Por tanto, "una imagen a 24 bits de color" es una imagen en la cual cada punto puede tener hasta 16,7 millones de colores distintos; esta cantidad de colores se considera suficiente para casi todos los usos normales de una imagen, por lo que se le suele denominar color real. La casi totalidad de los escáners actuales capturan las imágenes con 24 bits, pero la tendencia actual consiste en escanear incluso con más bits, 30 ó incluso 36, de tal forma que se capte un espectro de colores absolutamente fiel al real; sin embargo, casi siempre se reduce posteriormente esta profundidad de color a 24 bits para mantener un tamaño de memoria razonable, pero la calidad final sigue siendo muy alta ya que sólo se eliminan los datos de color más redundantes.

¿Cuánto ocupa una imagen?
Depende de la imagen (genial respuesta, ¿verdad?). Para saber exactamente cuál va a ser el tamaño de una imagen, deberemos usar la siguiente fórmula:
Tamaño imagen (KB) = L x A x RH x RV x bits / 8.192
Donde L y A son las dimensiones de la imagen en pulgadas (una pulgada = 2,54 cm) y RH y RV las resoluciones horizontal y vertical respectivamente. Hagamos un ejemplo rápido: una imagen DIN-A4 (aproximadamente 11,7x8,3 pulgadas) escaneada a 300 ppp (300x300) con 24 bits de color (color real) ocupa ¡25.490 KB!! (unos 25 MB, 25 megas!!). La cifra resulta impactante, pero no se preocupe; existen muchos métodos para reducir el tamaño de las imágenes, tanto a la hora de manejarlas en memoria como a la de almacenarlas en el disco duro.
El primer método consiste en escanear a menor resolución; la calidad es menor, pero el tamaño del fichero resultante también. Si la imagen va a tener como destino la pantalla de un ordenador, 75 ppp serán casi siempre suficientes, lo que reduciría el tamaño de la imagen anterior a apenas 1.593 KB, poco más de 1,5 MB.
Como segundo método tenemos reducir la profundidad de color. Si la imagen anterior es un dibujo a tinta china, con escanear a 1 bit (en blanco y negro) puede que tengamos suficiente. Esto reduciría el tamaño a tan sólo 1.062 KB, casi exactamente 1 MB.
Por último podemos archivar la imagen en formato comprimido. En este caso el tamaño de la imagen en memoria permanece invariable (25 MB), pero el tamaño en disco puede quedar en menos de una quinta parte sin pérdida de calidad, o incluso menos si la compresión se realiza eliminando información redundante. Como ejemplo de formatos de archivo de imagen con compresión tenemos los JPEG (o JPG), GIF o TIFF, frente al clásico BMP que carece de compresión alguna.
Lo más importante es que podemos combinar los factores anteriores para conseguir resultados realmente optimizados; así, escaneando la imagen del ejemplo a 75 ppp, con 1 bit de color y guardándola en formato GIF, el resultado puede ocupar tan sólo 66 KB en memoria y menos de 15 KB en disco.Formatos de escáner
Físicamente existen varios tipos de escáner, cada uno con sus ventajas y sus inconvenientes:
· De sobremesa o planos: son los modelos más apreciados por su buena relación precio/prestaciones, aunque también son de los periféricos más incómodos de ubicar debido a su gran tamaño; un escáner para DIN-A4 plano puede ocupar casi 50x35 cm, más que muchas impresoras, con el añadido de que casi todo el espacio por encima del mismo debe mantenerse vacío para poder abrir la tapa. Sin embargo, son los modelos más versátiles, permitiendo escanear fotografías, hojas sueltas, periódicos, libros encuadernados e incluso transparencias, diapositivas o negativos con los adaptadores adecuados. Las resoluciones suelen ser elevadas, 300x600 ppp o más, y el precio bastante ajustado. El tamaño de escaneado máximo más común es el DIN-A4, aunque existen modelos para A3 o incluso mayores (aunque ya con precios prohibitivos).
· De mano: son los escáners "portátiles", con todo lo bueno y lo malo que implica esto. Hasta hace unos pocos años eran los únicos modelos con precios asequibles para el usuario medio, ya que los de sobremesa eran extremadamente caros; esta situación a cambiado tanto que en la actualidad los escáners de mano están casi en vías de extinción. Descansen en paz. Su extinción se debe a las limitaciones que presentan en cuanto a tamaño del original a escanear (generalmente puede ser tan largo como se quiera, pero de poco más de 10 cm de ancho máximo) y a su baja velocidad, así como a la carencia de color en los modelos más económicos. Lo que es más, casi todos ellos carecen de motor para arrastrar la hoja, sino que es el usuario el que debe pasar el escáner sobre la superficie a escanear (abstenerse aquellos con mal pulso). Todo esto es muy engorroso, pero resulta eficaz para escanear rápidamente fotos de libros encuadernados, artículos periodísticos, facturas y toda clase de pequeñas imágenes sin el estorbo que supone un escáner plano.
· De rodillo: unos modelos de aparición relativamente moderna, se basan en un sistema muy similar al de los aparatos de fax: un rodillo de goma motorizado arrastra a la hoja, haciéndola pasar por una rendija donde está situado el elemento capturador de imagen. Este sistema implica que los originales sean hojas sueltas, lo que limita mucho su uso al no poder escanear libros encuadernados sin realizar antes una fotocopia (o arrancar las páginas, si se es muy bestia), salvo en modelos peculiares como el Logitech FreeScan que permite separar el cabezal de lectura y usarlo como si fuera un escáner de mano. A favor tienen el hecho de ocupar muy poco espacio, incluso existen modelos que se integran en la parte superior del teclado; en contra tenemos que su resolución rara vez supera los 400x800 puntos, aunque esto es más que suficiente para el tipo de trabajo con hojas sueltas al que van dirigidos.
· Modelos especiales: aparte de los híbridos de rodillo y de mano, existen otros escáners destinados a aplicaciones concretas; por ejemplo, los destinados a escanear exclusivamente fotos, negativos o diapositivas, aparatos con resoluciones reales del orden de 3.000x3.000 ppp que muchas veces se asemejan más a un CD-ROM (con bandeja y todo) que a un escáner clásico; o bien los bolígrafos-escáner, utensilios con forma y tamaño de lápiz o marcador fluorescente que escanean el texto por encima del cual los pasamos y a veces hasta lo traducen a otro idioma al instante; o impresoras-escáner, similares a fotocopiadoras o más particulares como las Canon, donde el lector del escáner se instala como un cartucho de tinta.

Conectores: ¿paralelo, SCSI o USB?
Esta es una de las grandes preguntas que debe hacerse todo futuro comprador de un escáner. La forma de conectar un periférico al ordenador es siempre importante, pues puede afectar al rendimiento del dispositivo, a su facilidad de uso o instalación... y fundamentalmente a su precio, claro.
Puerto paralelo
Es el método más común de conexión para escáners domésticos, entendiendo como tales aquellos de resolución intermedia-alta (hasta 600x1.200 ppp, pero más comúnmente de 300x600 ó 400x800 ppp) en los que la velocidad no tiene necesidad de ser muy elevada mientras que el precio es un factor muy importante.
El puerto paralelo, a veces denominado LPT1, es el que utilizan la mayor parte de las impresoras; como generalmente el usuario tiene ya una conectada a su ordenador, el escáner tendrá dos conectores, uno de entrada y otro de salida, de forma que quede conectado en medio del ordenador y la impresora. Como primer problema de este tipo de conexión tenemos el hecho de que arbitrar el uso del puerto paralelo es algo casi imposible, por lo que en general no podremos imprimir y escanear a la vez (aunque para un usuario doméstico esto no debería ser excesivo problema).
De cualquier modo, debemos tener presente el hecho de que para obtener una velocidad razonable, el puerto debe estar configurado en los modos ECP o EPP (dependiendo del escáner en concreto), lo cual se selecciona generalmente en la BIOS. El problema aparece cuando el ordenador que queremos conectar es algo antiguo y no puede configurar el puerto más que en el antiguo estándar, 10 veces más lento (como ocurre con los primeros 486 e inferiores), o cuando surgen conflictos con otros dispositivos que tengamos conectados al puerto paralelo, como unidades Zip o algunas impresoras modernas.
En estos casos puede merecer la pena comprar una tarjeta controladora nueva que sustituya al puerto actual o bien que añada un segundo puerto (que será LPT2); estas tarjetas controladoras de dispositivos, llamadas también de I/O, son baratas pero en ocasiones difíciles de encontrar por estar en la actualidad integradas en la placa base.
Conector SCSI
Sin lugar a dudas, es la opción profesional. Un escáner SCSI (leído "escasi") es siempre más caro que su equivalente con conector paralelo, e incluso muchos resultan más caros que modelos de mayor resolución pero que utilizan otro conector. Debido a este sobreprecio no se fabrican en la actualidad escáners SCSI de resolución menor de 300x600 ppp, siendo lo más común que las cifras ronden los 600x1.200 ppp o más.
La utilidad de la conexión SCSI radica en dos apartados: velocidad y pocos requisitos de microprocesador. Lo primero es fácil de entender: la interfaz SCSI puede transmitir de 5 a 80 MB/s, dependiendo del estándar SCSI en concreto, mientras que el puerto paralelo a duras penas supera 1 MB/s (y eso en los modos "avanzados" ECP o EPP). Si como vimos antes una imagen A4 puede ocupar 25 MB o más, resulta evidente que un escáner SCSI es la opción a utilizar para escanear imágenes grandes con una cierta resolución y calidad de color.
La otra cualidad de SCSI incide también en la velocidad, aunque de otra forma. No se trata sólo de que se puedan transmitir 10 ó 20 MB/s, sino que además dicha transferencia se realiza sin que el microprocesador realice apenas trabajo; esto permite ir escaneando imágenes mientras realizamos otras tareas, agilizando mucho el trabajo. En un escáner paralelo resulta muy normal que mientras se realiza el escaneado el rendimiento del ordenador baje tanto que no merezca la pena intentar hacer nada hasta que haya finalizado el proceso.
Pero como no todo van a ser ventajas en esta vida, los escáners SCSI (y en general todos los dispositivos SCSI) tienen una carga: su precio elevado, justificable por el aumento de prestaciones que suponen y por la necesidad de incluir una tarjeta controladora SCSI, ya que muy pocos ordenadores traen una incorporada (mientras que todos tienen puerto paralelo). Para economizar un poco, en muchas ocasiones dicha tarjeta es un modelo de prestaciones reducidas, capaz de controlar únicamente el escáner y no los 7 ó 15 dispositivos que pueden manejar las tarjetas normales.
Puerto USB
Esto es lo último en escáners; tanto, que hace poco más de un año sencillamente no existía ningún escáner en el mercado con este tipo de conexión. Los puertos USB están presentes en la mayoría de ordenadores Pentium II, AMD K6-2 o más modernos, así como en algunos Pentium MMX.
En general podríamos decir que los escáners USB se sitúan en un punto intermedio de calidad/precio. La velocidad de transmisión ronda los 1,5 MB/s, algo más que el puerto paralelo pero bastante menos que el SCSI; la facilidad de instalación es casi insuperable, ya que se basa en el famoso Plug and Play (enchufar y listo) que casi siempre funciona; todos los ordenadores modernos tienen el USB incorporado (los Pentium normales ya son antiguos... ¡qué se le va a hacer!!); y además dejan el puerto paralelo libre para imprimir o conectar otros dispositivos.
Se trata, en fin, de una solución claramente enfocada al usuario doméstico u oficinista, lo que se nota en su precio, sólo algo por encima del de los escáners de puerto paralelo. En realidad dicha diferencia de precio no debería existir, ya que fabricar un escáner de uno u otro tipo cuesta prácticamente lo mismo, pero al ser una tecnología reciente nos cobran la novedad; es de suponer que dentro de unos meses cuesten lo mismo que los de puerto paralelo, que probablemente acaben por desaparecer en unos años
La interfaz TWAIN
Aunque se trata de un tema que compete estrictamente al software (los programas), no viene mal comentar brevemente en qué consiste este elemento. Se trata de una norma que se definió para que cualquier escáner pudiera ser usado por cualquier programa de una forma estandarizada e incluso con la misma interfaz para la adquisición de la imagen.
Si bien hace unos años aún existía un número relativamente alto de aparatos que usaban otros métodos propios, hoy en día se puede decir que todos los escáners normales utilizan este protocolo, con lo que los fabricantes sólo deben preocuparse de proporcionar el controlador TWAIN apropiado, generalmente en versiones para Windows 9x, NT y a veces 3.x. Desgraciadamente, sólo los escáners de marca relativamente caros traen controladores para otros sistemas operativos como OS/2 o Linux, e incluso en ocasiones ni siquiera para Windows 3.x o NT; la buena noticia es que la estandarización de TWAIN hace que a veces podamos usar el controlador de otro escáner de similares características, aunque evidentemente no es un método deseable...
Dejando aparte las librerías DLL y otros temas técnicos, la parte que el usuario ve del estándar TWAIN es la interfaz de adquisición de imágenes. Se trata de un programa en el que de una forma visual podemos controlar todos los parámetros del escaneado (resolución, número de colores, brillo...), además de poder definir el tamaño de la zona que queremos procesar.
Si la fidelidad del color es un factor de importancia, uno de los parámetros que probablemente deberemos modificar en esta interfaz es el control de gamma, para ajustar la gama de colores que capta el escáner con la que presenta nuestro monitor o imprime la impresora. Le recomiendo que busque en la documentación del escáner para más información.

El OCR
Se trata de una de las aplicaciones más comunes de los escáners. OCR son las siglas de Optical Character Recognition, reconocimiento óptico de caracteres, o con una descripción más sencilla: cómo hacer para enseñar a leer al ordenador.
Si pensamos un poco en el proceso de escaneado que hemos descrito anteriormente, nos daremos cuenta de que al escanear un texto no se escanean letras, palabras y frases, sino sencillamente los puntos que las forman, una especie de fotografía del texto. Evidentemente, esto puede ser útil para archivar textos, pero sería deseable que pudiéramos coger todas esas referencias tan interesantes pero tan pesadas e incorporarlas a nuestro procesador de texto no como una imagen, sino como texto editable.
Lo que desearíamos en definitiva sería que el ordenador supiera leer como nosotros. Bueno, pues eso hace el OCR: es un programa que lee esas imágenes digitales y busca conjuntos de puntos que se asemejen a letras, a caracteres. Dependiendo de la complejidad de dicho programa entenderá más o menos tipos de letra, llegando en algunos casos a interpretar la escritura manual, mantener el formato original (columnas, fotos entre el texto...) o a aplicar reglas gramaticales para aumentar la exactitud del proceso de reconocimiento.
Para que el programa pueda realizar estas tareas con una cierta fiabilidad, sin confundir "t" con "1", por ejemplo, la imagen que le proporcionamos debe cumplir unas ciertas características. Fundamentalmente debe tener una gran resolución, unos 300 ppp para textos con tipos de letra claros o 600 ppp si se trata de tipos de letra pequeños u originales de poca calidad como periódicos. Por contra, podemos ahorrar en el aspecto del color: casi siempre bastará con blanco y negro (1 bit de color), o a lo sumo una escala de 256 grises (8 bits). Por este motivo algunos escáners de rodillo (muy apropiados para este tipo de tareas) carecen de soporte para color