DPreview… vi vi viva la fiesta.

He de reconocer que me he pensado bastante el escribir este post… después del último sobre el mismo tema va a parecer que tengo algo contra el sr. Askey, y la verdad es que no, me da igual como se lo monte, o lo que opine. Lo que me jode bastante es que este tipo de análisis se tomen luego como verdades absolutas, porque luego eso se traduce en conversaciones absolutamente plagadas de estupideces y tópicos falsos como la que podemos ver aquí. Esto redunda en el hecho de que la gente se ponga a mirar chorradas a la hora de comprar una cámara y que, cada vez más, la gente que empieza piensa que su cámara es la que hace las fotos.

Iba a titular el post “Con 2 cojones” porque, si anteriores análisis fueron absolutamente parciales, sobre todo en sus conclusiones y en el peso aleatorio que le da a ciertas características (en una cámara un visor pequeño es un grave defecto y en otra ni se menciona este hecho…), lo que acabo de leer en la última simplemente me deja perplejo.

El caso es que el sr. Askey acaba de publicar en Digital Photography Review el análisis en profundidad de la nueva Sony Alpha-100 y, aunque recibe la máxima calificación (faltaría más, no es Olympus…) me encuentro en los “contras” de la conclusión esto:

“Occasional Multi-segment metering under-exposure” o sea, puesto en el idioma de José María de Pereda: “Subexposiciones ocasionales usando medición multi-segmentos”.

¿Podría ser, no? Quizá no está el fotómetro todo lo ajustado que podría, hay un fallo en el firmware… o algo así ¿no? tampoco es tan grave, menos en una digital donde vemos el resultado al instante…

Bien, pero el problema es que, en este caso, esa línea en concreto denota el absoluto desconocimiento del funcionamiento del fotómetro multi-segmentos de Minolta y, por ende, el de Sony, ya que es el mismo pero evolucionado en número de celdillas. ¿Por qué saco esta conclusión? pues muy sencillo. Un buen amigo ha recibido ya la Alpha-100, se ha pasado una tarde entera haciendo pruebas y me comentaba los resultados ayer ¿saben que me comentó? pues sí, que el fotómetro a veces subexponía. O sea, lo que dice el sr. Askey… o sea que su conclusión es acertada ¿no? Pues no. No lo es. Explicándole a mi amigo como funciona el fotómetro de Minolta y, repitiendo las pruebas al día siguiente, resulta que el fotómetro dejó de subexponer. ¡Joder qué curioso! he arreglado una cámara sin tocarla. Es más, resulta que yo sé como funciona el fotómetro de una cámara ¡que no he tenido en mi vida en la mano!.

La fotometría multisegmentos de Minolta es diferente de la de Canon o Nikon, muy diferente, y funciona bien casi siempre… pero como las otras, no es infalible, sobre todo si no se sabe como funciona. Al cabo del tiempo cualquier fotógrafo acostumbrado a un sistema encontrará que otra cámara, probablemente, no funcionará “bien”, que no medirá “bien” o que el AF no irá muy fino. Es relativamente normal, muchos profesionales y aficionados avanzados sólo usan una o dos cámaras a la vez, generalmente de la misma marca y tienden a pensar que todas hacen las mismas cosas de la misma manera. El problema es cuando te encuentras que alguien que se supone que analiza seriamente las cámaras desconoce cosas que luego usa para esos análisis.

El fotómetro de Minolta, en su modo multi-segmentos, funciona en gran medida como una medición central avanzada, desplazando el mayor peso de la medición hacia los segmentos del panel que considera que tienen más probabilidad de ser el sujeto principal (generalmente coincidie con el punto de enfoque activo, pero no siempre). Esto supone que en ciertos casos, salvo que tengamos cuidado, vamos a obtener subexposiciones, porque el sistema es bastante conservativo con las luces (si conoceis a alguien con una Minolta que haya usado diapositivas en el pasado vereis como tiene muy pocas sobreexpuestas). No es ningún defecto en el fotómetro ni fallo en la cámara, simplemente se trata de que no estamos usando bien el fotómetro.

¿Sony debería haber mejorado este punto? bueno, quizás sí o quizás no, el sistema es muy bueno en la mayoría de circunstancias y es muy difícil que nos otorgue fotos abrasadas que tienen cierta tendencia a aparecer en otras marcas (y que nunca he visto mencionadas en los análsis de DPreview).

En resumen, que hay que procurar tomarse las cosas con un poco más de sentido crítico. Ni las opiniones de Phill Askey, ni las mías, ni las de nadie, son más que eso, opiones sobre las cámaras, tomémosnoslas como tal y saquemos nuestras PROPIAS conclusiones.

En la montaña en verano.

Tengo esto un poco abandonado, no en vano, aunque no estoy de vacaciones, estamos en los meses más calurosos del año y hay pocas ganas de nada…

El pasado fin de semana recibí la visita de Fran y, aprovechando que Javi también anda por estas tierras, pasamos unas jornadas de afotamiento intensivo en la montaña central leonesa. Hicimos muchas fotos y lo pasamos, al menos yo, bastante bien; aunque de todos los disparos la mayoría no se salvan, lo que al final cuenta en estos casos es pasar el rato.

valdeteja2 valdeteja ranedo el tren una

Datos de las imágenes: Olympus E-1, Zuiko digital 14-54mm f:2.8-3.5; procesado y edición en Adobe Photoshop CS bajo Windows 2000.

Cambiar el chip

Desde bien pequeñito me han gustado los coches, el mundo del automóvil en general. Ahora no soy un gran forofo ni un gran sabio del motor, pero me sigue gustando y sigo viendo con interés los nuevos modelos de coches, de todas las clases que van apareciendo en el mercado.

También tengo bastante conciencia medio-ambiental y, en su día, puse bastantes esperanzas con el renacer de los coches elétricos en los EE.UU. Ese renacer fue llevado a la ruina por el poderoso lobby petrolero que controla las riendas del pais. Es lo que nos pretenden mostrar en el prometedor documental “Who killed the electric car” que espero poder ver.

Pero veo que no es allí el único sitio donde tienen problemas de este tipo. Aquí ocurre lo mismo. En nuestro mercado disfrutamos en la actualidad de 4 automóviles híbridos (motor eléctrico y de gasolina), 3 del grupo Toyota y uno de Honda. Son caros y no disfrutan de ninguna subvención ni de exención de impuestos como sería lo deseable y lo normal en un pais civilizado que no es productor de petróleo pero es que, además, contemplo con estupor como son sistemáticamente criticados en prensa y foros del motor.

En particular se critica que no mejoran sustancialmente el consumo que se consigue con motores turbodiesel… cuando esto es RADICALMENTE FALSO. Por eso dicho que hay que cambiar el chip. Los hibridos, en particular el Prius de Toyota y el Civic híbrido de Honda, son coches pensados para una conducción relajada, para llevarnos de un punto a otro a una velocidad de crucero normal, no para ser conducidos de forma deportiva pero, sobre todo, están pensados para lo que hacemos casi todos: conducir mucho por ciudad (que es donde más combustible se consume) y un poco por carretera.

Ambos híbridos tienen un consumo MUY INFERIOR al de cualquier coche no híbrido en ciruito urbano, de hecho su consumo es similar o inferior al de los buenos diesel en condiciones óptimas (en carretera a velocidad media). En carretera y, sobre todo, si los queremos conducir a alta velocidad y pidiendoles grandes y bruscas aceleraciones, su consumo puede aumentar hasta hacerse superior al de un diesel; pero conducidos con tranquilidad y procurando que el motor de gasolina sólo se active cuando es realmente necesario (adelantamientos, cuestas…) el consumo es bastante contenido. Pero es que aún así, el tremendo ahorro que nos suponen en ciudad con su reducísimo consumo, siendo la conducción ciudadana el grueso del kilometraje de la mayoría de nosotros… es lo que no se cita, es lo que se pasa por alto. Vamos, que siguen sin interesar a los de siempre.

Acabaremos comiendo piedras, querremos obtener soluciones cuando ya sea demasiado tarde.

La pluma es más fuerte que la espada

El otro día tuve una interesante conversación con Fran que versó sobre el maestro Henri Cartier-Bresson.

No puedo decir nada que no se haya dicho ya sobre el co-fundador de la Agencia Magnum, inventor del foto-periodismo moderno y pionero en el uso serio del formato 35mm. Todo lo que pudiera escribir aquí se ha dicho ya. Además lo mejor es ver sus fotos, hablan por sí solas.

El tema de este post es otro, Cartier-Bresson es el mejor ejemplo de artista que utiliza su cámara como medio, que usa su equipo para trabajar, no para contemplarlo. El maestro usó durante casi toda su carrera, y para tomar sus fotos más famosas, únicamente una cámara Leica y un objetivo de 50mm… y eventualmente uno ligeramente más largo para fotos de paisaje. No hay más, no le hizo falta una reflex, ni un super-teleobjetivo ni el megazoom más moderno… sólo su cámara, su visión… su arte.

El fotómetro… Midiendo la luz.

Ya he hablado en este blog sobre los sistemas de enfoque automático y, aunque no he terminado con el tema, quiero hacerlo ahora del otro sistema que ha experimentado una evolución más acusada en el mundo de la fotografía junto con el ya visto: el fotómetro. No es éste un artículo destinado a desentrañar los misterios de medición de la luz, ni un curso sobre exposición, ni voy a hablar de las escalas de sensibilidades, velocidades o diafragmas… eso está en los cursos.

Aunque mucha gente no es consciente de ello al hacer fotos, para conseguir una foto correcta, ni muy clara ni muy oscura, es necesario medir la luz disponible en la escena para ajustar los sistemas de exposición de la cámara. Esto se realiza mediante un sistema disponible en la actualidad en todas las cámaras de uso habitual que se denomina comunmente fotómetro, aunque su nombre correcto es el de exposímetro. En las cámaras compactas, sobre todo cuando las hacemos funcionar de manera totalmente automática, su funcionamiento suele ser totalmente transparente para el usuario, que se limita a componer la imagen en el visor y disparar. Sin embargo este funcionamiento “transparente” no ha sido siempre tal, como supongo sabrán la mayoría de los que hayan utilizado alguna vez una cámara en modo totalmente manual.

Desde el punto de vista de la fotometría en la fotografía tenemos que marcar una fecha a partir de la cual cambia la concepción de la medición de la luz; en 1.983 la casa japonesa Nikon lanza la FA que incorpora un sistema fotométrico desconocido hasta la fecha, denominado AMP (“Advanced Multi-Parttern” o Multi Patrón Avanzado). Este sistema se basa en el uso de un sensor especial que divide la escena en varios segmentos analizando la luz en cada uno de ellos para obtener la medición final… volveremos sobre esto más adelante, pero este sistema, más conocido como “medición matricial” cambió el panorama fotográfico en adelante.

Centrándonos, como otra veces, en las cámaras de 35mm y sus derivadas actuales, desde la popularización del formato una de las preocupaciones de las marcas fue ofrecer al usuario un sistema de fotometría que simplificase la medición de la luz a la hora de captar la foto. Las primeras cámaras no disponían de fotómetro integrado y la medición, o bien se hacía mediante un fotómetro “de mano” o bien se hacía a “ojímetro”; ya en los años ’50 del siglo pasado empiezan a popularizarse modelos con fotómetros acoplados al sistema de exposición, aunque la medición de la luz se realiza de manera externa (es decir, no se mide la luz que capta el objetivo sino mediante una célula externa a éste). El siguente paso lógico (que dio Pentax, por cierto) fue presentar una cámara con un fotómetro integrado… y que medía la luz a través del objetivo, es lo que se conoce como fotómetro TTL (Through The Lens) lo que no sólo permite una precisión mucho mayor al usar el propio objetivo como medio de entrada, sino que acelera la toma de imágenes.

Los primeros fotómetros TTL eran, básicamente, de 2 tipos: integrales o centrales. La medición integral, la más simple, mide la luz en todo el encuadre sin darle más relevancia a ninguna zona concreta; tiene el inconveniente de que es fácil que la medición se vea afectada si la escena presenta zonas con mucha más luz que otras sin que podamos saber bien qué partes están afectando más a la medición. El fotómetro central (o medición ponderada al centro) pretende ser un poco más “preciso”. También tiene en cuenta la luz del encuadre completo pero, en este caso, se le da mayor peso a la zona cental del mismo. Esto se ha realizado de manera diferente en distintas marcas y modelos pero, por simplificar la explicación, se suele considerar un círculo de unos 12cm en el centro del encuadre al que se le suele dar un “peso” del 75% dejando el 25% restante para el fondo; en algunas cámaras éste círculo incluso aparece reflejado en el visor, como es el caso de la mayoría de cámaras reflex de la marca Nikon, por ejemplo. La relación entre el centro y el fondo también puede variar, incluso dentro de la misma marca, siguiendo con el ejemplo de Nikon nos encontramos con relaciones de 60/40, 75/25 e, incluso 80/20, suele ser bueno consultar el manual de nuestra cámara para conocer lo que hace realmente en este modo de medición. La medición central, que ha sido la única que se ha ofrecido con la mayoría de las cámaras reflex en los ’70 y ’80 tiene la ventaja de que es bastante precisa y es fácil de entender, ya que sabemos lo que estamos midiendo y cómo lo estamos haciend; no obstante también presenta problemas en casos de escenas con iluminaciones complicadas y es necesaria la experiencia del fotógrafo que debe interpretar la medición facilitada por el sistema para ajustar correctamente la exposición en cada caso.

Como el mercado evolucionaba hacia una mayor automatización de todos los sistemas, el fotómetro no podía ser menos; muchas cámaras ya ofrecían en estos años sistemas de exposición automáticos o semi-automáticos en los que el fotógrafo sólo tenía que ajustar el diafragma y la cámara calculaba la velocidad o, aunque más raro, al revés, incluso había alguna con sistemas de exposición totalmente programados en los que la cámara ajustaba tanto la velocidad como el diafragma… faltaba un sistema más preciso de fotometría.

En los primeros años ’80 surgen una serie de cámaras, de orientación profesional, que le dan una vuelta de tuerca al sistema de fotometría y se consiguen los fotómetros más precisos hasta entonces, de hecho, en algunos aspectos no han sido superados aún. Estas cámaras, la Olympus OM-2, Nikon F3, Pentax LX… en esencia no eran otra cosa que exposímetros centrales, pero se da un cambio total en el modo de funcionar: pasan de tener el sensor en el pentaprisma a tenerlo en la base del espejo, de manera que reciben la luz reflejada, antes del disparo, por un espejo auxiliar situado por detrás del principal y, aquí está la novedad, también reciben la luz reflejada por la película mientras dura la exposición… de esta manera se puede controlar de forma precisa la luz que está recibiendo la película y se adapta el tiempo de exposición incluso en el caso de que la luz cambiase durante la exposición.

Sin embargo, como ya dijimos, el salto se produce en 1.983 con la aparición del sistema AMP que presenta Nikon en la FA. La FA equipa dos sensores fotométricos, situados en el pentaprisma, uno a cada lado del ocular, estos sensores están subdividos, a su vez, en 3 segmentos, de manera que se superponen para, cubriendo el fotograma entero, tener 5 zonas de medición de luz independientes en el encuadre. El fotómetro deja de ser un instrumento “tonto” y empieza a tomar sus propias decisiones -aunque, para bien o para mal, si dar información al fotógrado sobre esas decisiones-. El sistema, ahora, no sólo incluye un sensor que mide la luz sino un pequeño ordenador que, basándose en la luz que recoge cada segmento y en una base de datos incorporada, es capaz de distinguir situaciones complicadas que un fotómetro tradicional no resuelve corretamente.

Desde entonces, y siempre con Nikon ligeramente en cabeza, absolutamente todas las marcas han desarrollado algún tipo de medición multisegmentos.

Nikon ha continuado desarrollando su medición matricial basada en el esquema original de 5 segmentos hasta hace bien poco, la F90 supuso la incorporación de 3 segmentos auxiliares más (tenía 8 ) que cubrían el área del sensor de enfoque para integrar ambos sistemas, la F60 usaba el mismo principio (con 6 segmentos al tener un sensor AF de menor área) y las F100, F80 y sus derivadas (como la D100) usaban un sensor de 10 segmentos en los que había 5 principales, iguales a los originales y 5 auxiliares para cubrir los 5 puntos de enfoque… Sólo las últimas cámaras de película, las F75 y F55 se apartaron de éste esquema para incluir sensores de medición con una distribución diferente pero, para entonces, estaba claro que la medición matricial de Nikon iba a seguir un nuevo caminio: el iniciado por la F5, que incorporaba para medir la luz un sensor CCD de 1.005 pixeles que, no solo mide la luz sino también el color de la escena, siendo el método usado en todas sus cámaras actuales, incluso la más sencilla D50 que incopora un sensor simplificado en pixeles pero no en capacidades.

Canon optó en sus primeras Eos por incorporar un sistema similar al de Nikon, con 6 segmentos, aunque, con posterioridad, en sus cámaras hemos podido observar una curiosa evolución en número y disposición de los segmentos de los sensores, apostando casi desde el principio por la integración de los sistemas de medición y AF.

Minolta pionera en el AF, se unió en su segunda gama de cámaras AF, con la 7000i al carro de la medición multisegmentos, siendo pionera, una vez más, al integrar los sitemas de medición y AF. En esta gama Minolta apuesta por un sistema de medición multisegmentos que podíamos considerar más bien como una medición central “avanzada” ya que utiliza un sensor para el “fondo” y 5 que cubren el tradicional círculo de 12 mm en el centro del encuadre que se usaba para la medición central. Pero en su gama “xi” aparece el sensor de 14 segmentos en “panal” que se ha venido usando hasta la desaparición de la marca y que, con más segmentos, sigue usando Sony en su nueva Alpha 100. Este sensor funciona de forma integrada con el AF para, detectando la posición del sujeto en el encuadre, desplazar el peso de la medición a esa zona.

Pentax comenzó, con su gama SF, usando un sensor de 8 segmentos, que mantuvo en su gama Z, para pasar a un sensor de 6 segmentos en sus MZ (usando uno 2, centro y fondo, parecido a la medición central pero más selectivo en sus cámaras de gama más baja), usando en la actualidad uno con más segmentos en sus cámaras digitales pero siguiendo, en esencia, el mismo principio que Nikon: medición de todos los segmentos y comparación con biblioteca de imagénes.

Olympus fue la última en subirse al carro y la que ha venido usando el sistema más sencillo hasta épocas bien recientes, sus primeras reflex digitales usaban el mismo sensor que sus últimas reflex, lo que ellos llaman “medición ESP -Electro Selective Parttern-” que no es otra cosa que un sensor de sólo 3 segmentos… no obstante es la viva prueba de que no siempre más segmentos suponen mejor medición puesto que sus cámaras con 3 segmentos: como la E-1 o la E-300 prueban que se puede tener un muy buen fotómetro multi-segmentos con un número muy limitado de ellos a condición de que el sistema esté bien programado. Las nuevas cámaras, E-500 y E-330 incorporan sistemas de más segmentos que han mejorado sólo ligeramente el rendimiento de sus antecesoras, mostrándose más como una decisión de márketing que como una necesidad real.

Continuara…

Alta tecnología

Siempre me he resistido a deshacerme de las cosas viejas que aún funcionan… Además, hace tiempo que pienso que esta fiebre tecnológica que sufirmos nos lleva, muchas veces, a olvidarnos de que no siempre hace falta tener lo último de lo último.

Llevo tiempo tratando de montar un ordenador con piezas de descartes para tener en el cuarto, sólo tiene que servir para navegar y muy poco más… he conseguido hacer funcionar un Pentium 200 con unos 100 MB de RAM (todo lo que he conseguido en SIMMs) y con unos cuantos HDs de baja capacidad. Le he montado 2 HDs de 1.6GB y uno de 2.5GB. Le he instalado Xubuntu 6.06 LTS mediante el CD de instalación alternativa. No va deprisa, pero cumple sobradamente su cometido (incluso coge sin problemas el adaptador WiFi USB).

Lo que más me ha gustado ha sido la facilidad que he tenido para montar un RAID 0 por software con los 2 discos de 1.6GB… calcadito a Windows, vamos.

Con esto, ahora mismo tengo menos equipos funcionando bajo Windows que bajo otros sistemas. De los 3 equipos que suelen usarse en casa, sólo el portatil tiene instalado Windows XP, además de Ubuntu, que es el que se utiliza casi siempre. El Pentium tiene Xubuntu y el Mac de mi hermano Mac OS 9.0.

Cada día entiendo menos por qué no hay más gente usando Linux.

Conciertazo… Cantabria Celta

Este fin de semana hemos podido disfrutar en la playa de Merón, San Vicente de la Barquera (Cantabria), de un increible, fantástico, maravilloso y todo lo que se pueda añadir.

Se desarrolló durante el Viernes y el Sábado noche y pudimos disfrutar, entre otros, de Luétiga, Cahórnega, El Hombre Pez, La Garma, Carlos Núñez y The Chieftains.

No puedo, en estas líneas, expresar lo que nos hicieron disfrutar en esas horas, baste decir que nos fuimos el sábado a las 4 y pico de la mañana con ganas de más.

También tengo que decir que me alegro enormemente del resurgir que la música folk ha tenido en mi tierra, donde se han recuperado tradiciones y músicas que estaban a punto de desaparecer; ahora no sólo tenemos a Luétiga y a Atlántica (escindidos de los anteriores) dedicados a la parte más tradicional del asunto, sino que podemos disfrutar de los magníficos Cahornega y de los sorprendentes El Hombre Pez… Poco a poco esta tierra le va teniendo más respeto a su propio pasado celta, sobre todo gracias a que nunca se ha llegado a perder la identidad cultural del pueblo cántabro.

Muchos lábaros, muchos… a ver si sirve para desterrar el ridículo gallardete marítimo que tenemos por bandera de la comunidad…

Carlos Núñez es todo un artista capaz de hacerse mover a las piedras y The Chieftains… ¡qué decir de The Chieftains!.

Dicen que el año que viene quieren hacer lo mismo, la verdad me da igual, ha sido la hostia.

Más y mejor en el blog de Fran.

chiefs carlos batle

Datos de las imágenes: Olympus mju:300D, edición en Photoshop CS.

Lección de fútbol

Desde el comienzo del mundial hemos aguantado las chorradas habituales de los periodistas deportivos y colaboradores sobre lo “bien” que jugaba España y lo mal que jugaban Alemania e Italia. Al final nos hemos ido para casa, como siempre, entre otras cosas porque en el partido de octavos de final nos dedicamos a jugar “bien”, es decir, tocar mucho el balón, no tirar a puerta nunca y mirar a ver si nos podemos meter con el balón controlado en la portería. Así nos va como nos va, por el puto “espectáculo” que está matando nuestro fútbol.

Ayer, Alemania e Italia, dieron una auténtica lección magistral de lo que es JUGAR BIEN al fútbol… al que no le guste, que se dedique a otros deportes, el fútbol es lo que vimos ayer, lo de España es un circo.

Irresponsabilidades.

Todos nos hemos enterado por los medios de la tristísima noticia, el lunes pasado, del descarrilamiento de una unidad de tren en el metro de Valencia, con el lamentable saldo de 41 muertos y varios heridos de consideración.

Una vez más, para no variar, los responsables políticos de turno están esquivando el bulto, no vaya a ser que toque dimitir y deje de chupar del bote.

El responsable del tema de la Generalidad ha tenido la desfachatez de afirmar que el sistema de seguridad de la línea es suficiente y que no ha sido problemático en el accidente. ¡Con 2 cojones!.

Como sé que esto suena muy bonito para la prensa y cuela perfectamente cuando no se tiene un mínimo conocimiento del mundo ferroviario tengo que decir que los sistemas de seguridad en las líneas ferreas actuales están, entre otras cosas para evitar casos como el que nos ocupa, para minimizar los “fallos humanos” que lleven a un tren a entrar a 80 km/h en una curva limitada a 40 km/h.

La mayoría de líneas ferreas de la Península están equipadas con un sistema de segurdad llamado ASFA (la línea 1 de Metro Valencia tiene FAP que, si no me equivoco, es más sencillo aún) pero cuando la frecuencia y/o velocidad de los trenes es elevada, se suelen equipar sistemas más complejos que aseguren un mayor control del tráfico y la velocidad para permitir que los trenes circulen más cerca entre sí a la misma velocidad en condiciones de seguridad. En los metros y líneas de cercanías de gran demanda se instala, típicamente, un sistema llamado ATP que, directamente, impide que un tren haga lo que hizo el accidentado.

¿Por qué no hay ATP en esa línea? porque no se ha invertido en seguridad… y como nunca pasa nada hasta que pasa, ahora nos echamos las manos a la cabeza y decimos que si no está es porque no hace falta y santas pascuas…

Del mantenimiento de infraestructuras y unidades de tren no voy a comentar nada porque no las conozco directamente, pero lo que llevo leído me pone los pelos de punta. Se ha llegado a decir que en esa curva hay un “bache” pero que no pasa nada porque ya lo conocen los maquinistas… hale, a correr.

41 personas han perdido la vida y, como suele pasar, la culpa se la echan a uno de los muertos, que no se puede defender, el maquinista. Que puede que tenga su parte de culpa, pero este tipo de accidentes en una línea de metro, en el S.XXI no deberían ocurrir, al menos no por dejadez en temas de seguridad.