La odisea del NAS

Hacía tiempo que veníamos necesitando un NAS por aquí, el volumen de datos que manejamos es considerable y se hacía poco práctico manejarlo a base de compartir los datos en los puestos de trabajo se convertía en poco viable, a la par que inseguro.

Hace poco me puse manos a la obra y, una vez descartada la opción de agregar discos a uno de los puestos de trabajo, sin más; me encontré entre la opción de adquirir un NAS específico, de los que vienen en una caja compacta y en los que hay que conectar un par de discos y a correr… o montar un equipo, en plan servidor, donde tener montados los discos y que me permitiera más flexibilidad. Consultando que te consulta, de entrada llegué a la conclusión de que sólo los NAS específicos más baratos y limitados podían competir en precio con montar un equipo completo. Así que me acabé decidiendo por esta última opción.

Una vez resueltos los problemas componentes/proveedor, en especial el hecho de que uno de los discos duros de 2TB soportó un total de 2 encendidos antes de morir… lo que me llevó ni más ni menos que una semana completa. Me tuve que enfrentar a la configuración y puesta en funcionamiento del aparato. Y aquí fue donde se complicó el asunto hasta lo absurdo, en parte por torpeza mía, que llevaba sin trastear con Linux una temporada larga, y en parte por la propia ideosincrasia del funcionamiento del sistema.

El servidor en sí no requiere mucha filigrana: se trata de poner en la red un total de 2TB accesibles desde los puestos de trabajo (windows); estos 2TB están montados a base de dos discos de esa capacidad montados en RAID 1… tan sencillo como eso. O eso creía yo. Para hacer funcionar el chisme, usaría Linux, concretamente Ubuntu Server 10.10, administrando el equipo con webmin.

El problema se me presentó primero a la hora de instalar el sistema; la idea era dejar los discos del RAID dedicados a datos, con otro HD exclusivo para el sistema; como el sistema iba a ser ligero y no iba a requierir potencia de disco, lo instalo en un disco IDE de 40GB que tengo parado desde hace tiempo. No quería montar unidad óptica… en principio no me iba a hacer falta… o eso pensaba yo. 😀

Primer problema: es totalmente imposible instalar desde pendrive; ni montando la imagen con la, hasta ahora, infalible Unetbootin, ni usando el método propuesto en la página de Ubuntu: el resultado es el mismo, llega a un punto donde el instalador busca el CD y como no hay CD… da error. Al final tengo que montar una unidad óptica, no me queda otra.

Segundo problema: el RAID y la instalación. En principio pensaba usar el método estándar para windows: se usa la aplicación de la BIOS de la placa para montar un RAID que ya se le muestra al sistema como disco único y “pa’lante”… aquí cometí un grave error del que tardé en darme cuenta. Lo primero con lo que me encontré es con que el instalador detecta el RAID y me pregunta si lo quiero “activar”… aquí primer mosqueo “¿cómo que “activar”? será si lo quiero usar”… pues no. Si le doy a que lo quiero activar… lo detecta, lo monta… y tengo que usarlo para instalar el sistema por narices; por lo visto a nadie se le ha ocurrido que lo mismo quiero tener un RAID y no instalar el sistema en él. Total que decido tirar para delante, no activar el RAID en la instalación, particionar a mano el disco IDE e instalar… confiado en que luego podría configurar el RAID y usarlo para datos… ¡qué iluso!.

Tercer problema: el RAID una vez instalado el sistema. Bueno, pues ya tengo el sistema corriendo… vamos a montar los discos RAID y a correr… ¡coño, que no puedo!; aquí empezó una odisea de casi un día hasta que llegué a la conclusión de que tenía que deshacer el RAID de la BIOS y montarlo por software en el sistema. Pero el problema luego fue cargarme las particiones protegidas que había hecho en los discos la aplicación de la BIOS, que me llevó no pocos quebraderos de cabeza.

Conclusiónes:

-Instala desde el CD, es más fácil… parece mentira, pero es lo que hay.
-A nadie se le ha debido de ocurrir que lo mismo el RAID no lo quieres para el sistema; pues bien, es algo que pasa, algunos no queremos el RAID para el sistema, sino para los datos. Si me casca el sistema, me la rasca, restauro la imagen de nuevo y a correr, o la monto en otro disco… pero lo quiero independiente de los datos. En mi experiencia, compartir datos y sistema no suele llevar a nada bueno en caso de problemas.
Para montar el RAID en Ubuntu, sin problemas: trata los discos del RAID como discos individuales en la instalación, aprovecha para darles formato a EXT4 en ese momento, pero nada más. NO actives opciones de RAID en la BIOS
Webmin funciona de maravilla y es tan sencillo como instalarlo y ya está. Luego desde ahí se hace todo… incluso montar el RAID.

Luego, con el RAID funcionando, tuve otro pequeño problema con el servidor SAMBA, pero fue cosa de torpeza más que nada, porque había dos puntos de montaje creados y estaba usando yo el que no era. Pero una vez otorgados los permisos al directorio correcto, esto ya está funcionando, de forma totalmente integrada con el resto de equips windows, que escriben y leen en el servidor sin problemas.

De paso, el haber elegido esta configuración me va a permitir usar el equipo para otros menesteres más adelante. Así que ha merecido la pena.

Revisando un post sobre mainframes y terminales.

En septiembre de 2008 me dió por publicar un post sobre un tema que se escapaba un poco de lo que suelo hablar en este blog. En él comentaba mis impresiones sobre la evolución de los ordenadores personales y lo que podía suponer la llegada de equipos de bajo coste, combinada con el aumento de las capacidades de trabajo en red que estábamos experimentando.

Para mi sorpresa, supuso un aumento considerable del tráfico que registro habitualmente, dado que alguien tuvo a bien menearlo, por razones que desconozco.

Una visita por meneame, me llevó a leer la discusión generada, entre la que no faltaban un buen puñado de entendidos que afirmaban (textualmente) que se notaba que yo no tenía ni puta idea de lo que hablaba, y que la tendencia era justo la contraria…

Hoy, año y pico después, tengo en casa, conectado al televisor, un Acer Revo, que se aproxima mucho a los equipos de los que yo hablaba… y con un coste inferior a los 400€, con una potencia más que sobrada para la mayoría de actividades domésticas. De hecho no me importaría lo más mínimo tener un buen puñado de estos pequeños en un sitio que yo me sé…

Pero esto no lo escribo por haberme comprado el Revo, ni por el hecho de que la oferta de estos equipos, y de los pequeños notebooks (tremendamente evolucioandos desde el EEE-PC inicial, de Asus como éste desde donde escribo) haya crecido como para eclipsar a otros equipos antes más habituales; sino por haber leído en el XL Semanal de esta semana, núm. 1157; en el artículo “Cuatro Genios Made in Spain”, la entrevista al Dr. D. José Francisco Duato Marín, Catedrático de la Universidad Politécnica de Valencia, donde a la pregunta “¿Cómo serán los ordenadores dentro de 10 años?¿En que habrán cambiado?” contesta: “(…) En las empresas ya no tendremos un ordenador personal por cada puesto de trabajo, sino un terminal más barato y de menor consumo (…) conectado a un servidor.”

Me suena así como mucho a lo que escribí yo por aquí en ese artículo, en el que, al parecer “se me notaba que no tenía ni puta idea”.

A lo mejor el Dr. Duato tampoco la tiene.

Un “mediacentre” de andar por casa; amos, reciclando cosas viejas.

Llegó la hora de poner un poco de orden en el caos y entre ayer y hoy, sacando tiempo de donde no lo hay, me puse a colocar los componentes “viejos” utilizables que tenía dispersados por mi cuarto; con ellos he vuelto a poner en marcha 2 equipos decentillos que creo que van a cumplir la función que quiero darles.

Uno es un Pentium III a 933MHz con 256MB (aprox, porque detecta lo que le peta, pero funciona) que se va a quedar en mi cuarto como “mediacentre”.
El otro es uno de mis fieles AMD K7 a 900MHz que tantas horas de trabajo llevan encima, que con unos HDs que tienen también lo suyo pienso usar como NAS de apoyo en la tienda.

Voy a contar aquí mis penas con el primero de los dos, ya que el otro aún no lo tengo del todo listo.

La verdad es que creo que puedo estar contento, ha sustituido a un viejo Pentium III 500MHZ con la misma RAM que ya dió todo lo que podía dar, pero también he pasado de un CRT de 15″ a un TFT de 17″, con lo que el espacio utilizado se ha reducido drásticamente y es de agradecer (mi cuarto, grande, no es); el tecaldo, con trackball integrado, pese a ser vía infrarrojos, me permite manejar el equipo espatarrado desde la cama.

En principio tenía pensado poner Ubuntu, tal y como lo tenía antes, pero dado que el uso que le voy a dar es, más o menos, 95% reproducción multimedia, 5% cualquier otra cosa, he optado por montar un arranque dual, con Ubuntu 8.10 en una partición “grande” y la última versión disponible de la distribución Geexbox, que conocí hace tiempo, pero no había vuelto a utilizar.

Geexbox es una distribución pensada únicamente para reproducir de manera sencilla, contenido multimedia; pudiendo ser utilizada incluso con un mando a distancia; todo se hace a través de menús y está pensada para acceder a los dispositivos removibles y a los contenidos del propio disco duro. Ocupa unos 256MB en disco y viene con todos los codecs necesarios, al menos los necesarios para reproducir lo que yo tengo por ahí. He visto que las nuevas versiones soportan también tarjetas DVB, pero yo de eso no gasto. Me han sorprendido 2 cosas:
-El proceso de instalación es rapidísimo: unos 5 minutos con configuración manual de particiones.
-El arranque es igual de rápido; pero más rápido aún es el apagado: unso 4 segundos tarda en apagarse una vez seleccionada la opción correspondiente en el menú.

Asi pues; me ha quedado un sistema majete, destinado a reproducir contenido multimedia normalillo, nada de HD; manejable cómodamente desde la cama… e instalado con el mínimo esfuerzo. Muy recomendable Geexbox que ha evolucionado muy bien desde sus primeras versiones.

P.D. Aunque la web y las instrucciones de la distro están “in inglis”, hay posibilidad de ponerlo todo en cristiano de cristiania durante la instalación, para el que no se lleve bien con los albionenses.

Un par de aplicaciones tremendamente utiles.

Las chapucillas que estoy haciendo últimamente con el EEE-PC me han llevado a utilizar un par de aplicaciones la mar de útiles:

Unetbootin: disponible para Linux y Windows, automatiza la instalación de una .iso en un disco flash, de manera que podemos arrancar luego desde él para proceder a una instalación sin CD-ROM. Me permite llevar en el HD externo varias isos que me pueden hacer falta y pasarlas en un par de minutos a mi pendrive, por lo que me ahorro el cargar con varios discos y el CD-ROM externo. Qué quiero instalar Ubuntu en un sobremesa: abro el portatil, conecto el HD, ejecuto Unetbootin, instalo la iso en el Pendrive… y a instalar desde ahí. Qué me hace falta clonar un disco… pues lo mismo con Clonezilla.

-Y, preeeeeeeeeecisamente es Clonezilla la segunda “aplicación” aunque, en realidad, es una distrubución “Live” de Linux, que nos permite clonar particiones y discos completos, creando una imagen en otro disco… y restaurar desde la imagen, claro. Es decir, que podemos crear copias de seguridad de un disco o partición y, en caso necesario, restaurar desde esa copia. Todo sin tener que tener nada instalado y gracias a un programa libre.

¿Volvemos al pasado? (Mainframes y terminales)

Hasta hace relativamente poco tiempo, en las grandes empresas que necesitaban el uso del ordenador en los puestos de trabajo, o en las administraciones públicas,  no se trabajaba como ahora. Cualquiera que haya ido a un banco, una oficina de empleo… o sacarse el DNI, se habrá dado cuenta de que lo que tiene la persona que nos atiende delante, es un PC completo que corre algún tipo de aplicación específica. Pero no hace demasiado un PC costaba una pequeña fortuna por lo que, cuando se necesitaban diversos puestos informáticos, se recurría a las llamadas “terminales tontas“, que eran poco más que un monitor y un teclado, conectadas a un gran ordenador central, que era el que llevaba todo el peso del trabajo.

La posibilidad de que cada empleado dispusiese de su propio ordenador completo, en el que se podían instalar diversas aplicaciones, diversas impresoras, etc. vino a resolver unos cuantos problemas, además de poder optimizar capacidad de proceso y recursos. Ahora sólo era necesario disponer de otros ordenadores, los servidores, que realizasen algunas funciones pero, normalmente, el peso del trabajo lo lleva cada uno de los PCs en cada uno de los puestos.

Pero nada es gratis, como comprueban a diario los encargados de soporte de estas empresas… que ven como la capacidad para liarla parda del ser humano, cuando tiene delante un PC, tiende a infinito, por mucha restrucción de permisos que se tenga.

Y creo que es esta una de las razones, junto con la que comentaré a continuación, por la que el futuro en muchos de estos sitios va a pasar por volver, en cierta forma, al pasado.

Estamos avanzando, poco a poco, hacia un modelo de computación en el que van a primar las aplicaciones web: aquellas que vamos a ejecutar localmente en nuestro equipo, pero que van a correr directamente sobre el navegador web; lanzadas desde un servidor remoto. Tenemos clarísimos ejemplos en “Google Docs”, por ejemplo, que nos ofrece toda una suite ofimática ejecutable desde el propio navegador. Esto teniendo en cuenta que hace ya mucho que tenemos “externalizados” otros servicios que en principio necesitaban de una aplicación exclusiva residente: correo electrónico, lectores de noticias, agendas… Este post lo estoy creando en el propio navegador, por supuesto.

Está claro que esto no vale para cualquier aplicación y para cualquier trabajo, pero para todos aquellos en los que la aplicación se pueda implementar vía web puede suponer un cierto retorno a la configuración en terminales. Porque la otra enorme ventaja que presenta este modelo es la de la simplificación de los equipos y de los sitemas. Al fin y al cabo sólo nos va a hacer falta en cada puesto un equipo relativamente sencillo, en el que corra un sistema operativo ligero (se me ocurren muchas alternativas dentro del mundo Linux) en el que lo único que va a tener que ejecutar el usuario es el navegador web en el que correrán las aplicaciones que necesite. Ni siquiera va a tener que aprender a manejar el sistema… éste va a ser transparente a él, sólo necesita el navegador; por lo que un equipo compacto y sencillo, tipo EEE-Box, con un sistema ligero, que no consuma memoria en procesos innecesarios -lo que siginifica que vamos a poder tener menos RAM instalada- tipo DS-Linux o similar puede ser perfectamente válido para cada puesto…

Me consta que en algunos sitios ya se lo están planteando.

Probando EEE-Ubuntu 8.04…

Una vez que conseguí hacer arrancar Clonezilla, cosa que me costó lo mío porque parece ser que mi unidad de CD externa está más bien muerta; me dispuse a hacer una imagen de lo que tenía en el SSD del EEE-PC, que no es otra cosa que el sistema Xandros Linux que venía con mi querido portátil.

Ahora ya me podía animar a probar otras cosas en el disco interno sin miedo a perder lo que ya tenía funcionando.

En el HD externo tengo funcionando Ubuntu 7.10 convertido a EEE-Ubuntu mediante el script que se creó al efecto. Los orígenes de EEE-Ubuntu no eran otros: primero instalabas Ubunutu 7.10 y luego tenías que ejecutar un script que lo adaptaba al EEE. Con la nueva versión, la 8.04 ya instalas directamente un sistema, supuestamente, adaptado al chiquitín, y eso era lo que quería probar. Al fin y al cabo se supone que el Xandros original va bastante pelado y que Ubuntu es un sistema «más completo» y, personalmente, estoy bastante acostumbrado a las versiones normales de Ubuntu, que llevo usando desde la 5.04.

Habiendo desistido de la instalación desde CD, por el estado mencionado de mi unidad, me dispuse a instalar desde un pendrive, El proceso en sí es bastante sencillo, todo en modo gráfico y sólo me tuve que preocupar de particionar a mano el SSD, para instalar sin partición de intercambio (algo que no les suele sentar muy bien a los discos flash), y de configurar el teclado a la variante que tiene mi EEE-PC, «USA intl, with ALTGr death keys».

Tras dos días probando el EEE-Ubuntu he vuelto a Xandros. Tras tener varios problemas y no llegar a convencerme del todo. Esto es lo que me ha pasado a mi y a lo mejor no le pasa a todo el mundo.

-No detecta correctamente la batería, según enciendes aparece el mensaje de que la batería está estropeada.

-Se bebe la batería; no paso de hora y media, con Xandros supero las 2 horas y media en las mismas condicioens sin problemas.

-Tarda mucho en arrancar: Xandros, con KDE, lo tengo funcionando en unos 40-50 segundos. EEE-Ubuntu suele tardar más de 2 minutos en sacarme la pantalla de login… y luego tengo que esperar otro minuto para que aparezca el escritorio.

-Ocupa más en disco: recién instalado deja menos espacio que Xandros en el SSD.

-Con Xandros tienes ya todo el soporte multimedia instalado: codecs de audio y video, reproductores y demas… en EEE-Ubuntu, no.

-Ausencia de soporte para modems 3G/HSDPA: gran parte del tiempo que he consumido con EEE-Ubuntu ha sido para tratar de hacer funcionar el modem Huawei E220; sólo lo conseguí con wvdial desde la consola y modificando archivos de configuración. Imposible desde el modo gráfico a pesar de que hay varios tutoriales para Ubuntu que aseguran que funciona.
Xandros lo tiene totalmente soportado.

-Problemas con la configuración WiFi: el nuevo selector de redes está muy bien cuando va todo en dhcp, pero no se queda con las configuraciones manuales hechas, por lo que tengo que entrar en el configurador manual cada vez que arranco. No me importaría en principio, pero es que si uso la configuración 100% manual, como hice siempre en versiones anteriores del sistema… no consigo que funcione la conexión. En Xandros sólo tengo que darle a conectar.

-Problemas con la señal: esto ya lo había experimentado en mi otro portátil con las veriones 7.xx de Ubuntu. El nuevo driver madwifi funciona mal, no encuentro otra forma de decirlo; donde el driver antiguo le daba un repaso tremendo a las versiones para Windows; el nuevo da unas cifras de señal ridículas (en el trabajo no paso del 60% a unos pocos cm del AP)… y lo peor es que no es un error de indicación… son reales.

Así pues, he guardado la instalación realizada, por si me sirve para el futuro… y me he vuelto a Xandros, que vendrá más pelado, pero cumple de sobra.

Lightscribe en Ubuntu 8.04 sistemas de 64bits.

Voy avanzando poco a poco (lo que me deja el tiempo libre) en la configuración de Ubuntu Studio 8.04 para realizar, al menos, los trabajos de video. Ya he conseguido instalar el Cinelerra y he finalizado un proyecto de video, con su DVD, bastante sencillito, usando Kino para capturar desde el magnetoscopio Firewire y para realizar la exportación a formato DVD, usando luego DVDStyler para la autoría. Son programas quizá excesivamente sencillos, pero como éste también era un trabajo sencillo (no había que editar, sólo digitalizar) han cumplido bastante bien. En concreto DVDStyler me parece que va a darme bastante juego pese a la sencillez de su interfaz.

Pero el objeto de este post es el que figura en su título. ¿Cómo hago para usar mi grabadora Lightscribe en Linux?.

La pregunta, en principio parecía tener una solución bastante sencilla: al fin y al cabo el proceso es similar al que se sigue en Windows: instalas el paquete de soporte y luego el programa de impresión. Peeeero, siempre hay un pero. ¿Para qué pensar en los usuarios de sistemas de 64 bits? da igual que cada vez seamos más, se sigue sin contar con nosotros.

Por un lado, los paquetes .deb, que se descarga uno de aquí: http://lightscribe.com/downloadSection/linux/index.aspx sólo son válidos para sistemas de 32 bits. Por otro lado, el etiquetador “serio”, que proporciona LaCie aquí: http://www.lacie.com/products/product.htm?pid=10803 sólo está en formato rpm y, al ser también para sistemas de 32 bits, falla la conversión en Ubuntu AMD64 con alien.

Por fortuna, algún alma caritativa realizó la conversión y hay un .deb listo en el siguient sitio:

http://uploads.mitechie.com/lightscribe/4l_1.0-r6_i386.deb

Así que el proceso queda como sigue: bajamos el paquete .deb de sistema y lo instalamos:

http://lightscribe.com/downloadsection/linux/index.aspx?id=1372

y luego bajamos el  programa de etiquetación y lo instalamos… Peeeero para instalarlos en sistemas de 64 bits hay que forzar la arquitectura, así que no vale el instalador gráfico de paquetes, hay que hacerlo a mano en la terminal con la orden “sudo dpkg -i –force-architecture paquete.deb

Además, para que nos detecte bien la grabadora tendremos que copiar los archivos:

liblightscribe.so

liblightscribe.so1

desde /usr/lib a /usr/lib32…

y una vez hecho esto podemos lanzar el etiquetador con un sudo 4L-gui…. y ya podemos imprimir nuestros discos.

Limpieza

Se da la circunstancia de que, aunque uno tiene ya 3 décadas a sus espaldas, por circunstancias de la vida aún vive en casa de sus padres, como no pocos elementos de mi generación -los que fuimos llamados «los sin rumbo», que tiene cojones, si nosotros éramos los sin rumbo no sé qué serán los de ahora, pero bueno-. Como el espacio suele ser limitado toca reorganizar lo que hay en mi cuarto y, en este caso, dar salida a alguna de mis «niñas».

Aunque suena bastante friky, la razón de poner nombre a los equipos viene de la misma época que mi indicativo «Hawk55», hace muchos años, cuando empezaba a iniciarme en las aguas informáticas. Lo cierto es que me parece mucho más bonito que un equipo tenga un nombre, que identificarlos solo por un número, a parte de que así los tengo identificados en la red. En la academia, hace mucho, teníamos los ordenadores identifiacdos con nombres que acaban en la misma letra, y eso es lo que he hecho yo aquí también.

Estos ordenadores están hechos con «desechos» y sin tener grandes pretensiones sirven para trastear con ciertas cosas, para multimedia (pelis y audio)  y para navegar, que tampoco es moco de pavo.

Katty fue el primero que monté y es el más completo de todos. Es un modesto Pentium III a 500MHz con 256MB de RAM, 15GB de HD, una TNT2 con 32MB de gráfica y una SB 16 ISA de audio. Es el que más uso y el único que esta realmente «terminado» porque tiene incluso el SO instalado hasta las últimas consecuencas, personalización incluída. Actualmente corre Ubuntu 7.10 y lo mueve bastante bien, hasta el punto de que reproduce las películas desde la unidad de DVD perfectísimamente. El audio va bien a pesar de la edad de la tarjeta de sonido. Ha ido teniendo Ubuntu desde la 6.06 y ahora me tocará actualizarlo a la 8.04 si es que la puede mover… aunque me tocará otra vez pegarme con alsa para que me coja el audio.

Tamy es una reliquia, un Pentium 200 con 128MB de RAM en módulos SIMM, tiene 6GB de HD repartidos en 2 discos duros y una gráfica con un total de 1MB de RAM compartida, integrada en placa. Comenzó siendo un Pentium 100, pasó a un 166 y ahora al 200, cada paso ha supuesto configurar a mano los multiplicadores de la placa mediante jummpers, para recordar los viejos tiempos 😉 Corrió la primera versión de Xubuntu cuando en realidad no existía como tal distribución y ahora, que hace tiempo que no lo uso, dudo entre tratar de meter la 7.10 o pasar a un sistema aún más liviano como DSLinux…

Christy lo he montado hace poco con lo que rescaté funcionando del trabajo, es un K7 a 900 MHz con 256MB de RAM, 30Gb de HD, una S3 Savage con 16MB de video y una SB 128 de audio. Tiene Ubuntu 7.10 instalado, pero no he avanzado mucho más allá. Como ahora hace falta un ordenador en casa de mis abuelos, que se van a informatizar a los 85 años ahí es nada, dudo entre usarlo para practicar con Gentoo, que lo tengo pendiende desde hace bastante, o montárselo allí.

Y tengo otras 2 cajas ahora mismo en mi cuarto, de ahi tiene que salir al menos otro equipo funcional, pero estoy teniendo diferentes problemas para hacerlos funcionar, el mejor candidato es un Pentium III a 950MHz, pero algo falla, no sé si es problema de la placa o de la memoria, y aqui ando trasteando. Los Live CD consiguen arrancar, pero acaba fallando siempre algún punto de la instalación.

Mientras tanto tengo aquí al EEE-PC sirviendo para suministrarles red cuando el sistema desde el que arranco no tiene a bien reconocer la Prism54 USB. Como en Xandros la casilla de «compartir red» entre la wifi y la cableada está literalmente de adorno (porque no sirve absolutamente para nada) y como el kernel instalado no soporta iptables, he acabado arrancando Ubuntu desde el HD externo y probado «firestarter». Y veo con alborozo que otra cosa más no se puede decir que sea más sencilla en windows: compartir la red.

Primer día laborable con el nuevo equipo.

Por partes:

Windows xp64… lo esperado pero no hay drivers para: tableta gráfica (estoy tirando con la del portatil), ninguna impresora de las que tengo, scaner de transparencias (que voy a conectar a otro equipo ya que casi no lo uso). El resto bien, pero no comprendo como pueden existir carencias de este tipo con estos sistemas, no me entra en la cabeza que un dispositivo que estaba funcionando en una versión de un sistema operativo deje de estar soportado en el siguiente…

Ubuntu 64bits: La gráfica no la hago funcionar al 100%, o tengo las 2 pantallas funcionando, o tengo aceleración gráfica, las 2 cosas a la vez no; las impresoras funcionan, el escaner funciona… incluso hay quien dice que la tableta la ha hecho funcionar (yo no he podido aún) ¿por qué narices en Ubuntu sí y en Windows no?. A ver si el finde tengo tiempo para hacer más pruebas… eso sí, hice un intento con Kubuntu… KDE no es para mí, confirmado.