domingo, 27 de mayo de 2018

CERN, la ciencia que enorgullece a Europa

El mayor proyecto de investigación sobre la Tierra se pone serio

Tras años de retrasos y desfases presupuestarios, una nueva dirección del proyecto ITER cree que puede lograr su objetivo de demostrar que la fusión nuclear es el futuro de la energía


Mar Capeáns
CERN, la ciencia que enorgullece a Europa



Teclear en Google CERN y “end of the world” arroja más de 400.000 resultados. Una cifra considerable que se multiplica si le sumamos variantes de esta misma búsqueda como “destruir el planeta”, “apocalipsis”, “fin de los tiempos”, y similares. Así de famosa (y así de desconocida) es la Organización Europea para la Investigación Nuclear, nombre oficial del mayor laboratorio de investigación en física de partículas del mundo. La explicación de estas alarmas fue la puesta en marcha del LHC (Gran Colisionador de Hadrones), un acelerador de partículas diseñado para hacer chocar haces de protones a gran velocidad. Los primeros experimentos estaban previstos para octubre de 2008, aunque una avería obligó a retrasarlos, algo que llevó al Daily Mail a titular -con la habitual mesura de los tabloides británicos-: “El fin del mundo ha sido pospuesto”. Los temores provenían no solo de los amigos de las pseudociencias, proclives a pronosticar todo tipo de cataclismos a cambio de un poco de publicidad gratuita, sino que hubo incluso un químico alemán, profesor universitario, que demandó al CERN ante el Tribunal Europeo de Derechos Humanos. Los riesgos que la prensa publicó en esos días no sonaban nada bien: iban desde el nacimiento de un agujero negro que engulliría el planeta a la creación de materia extraña supermasiva que nos reduciría a un montón de neutrones inertes, pasando por el vacío cuántico o la formación de monopolos magnéticos.
Afortunadamente para todos, nada de eso ocurrió. Los hadrones siguen colisionando en el túnel de 27 kilómetros situado cerca de Ginebra en la frontera franco suiza, y con estos experimentos los científicos del CERN han podido demostrar la existencia del escurridizo boson de Higgs, algo tan improbable hasta hace poco que incluso Stephen Hawking llegó a apostarse 100 dólares con un colega a que nunca sería descubierto. El británico perdió su apuesta, pero gracias al CERN los humanos estamos más cerca de conocer el origen del universo. Aunque los experimentos que más llamán la atención del centro son los que implican al LHC por su importancia para los avances en la física de partículas, hay muchos otros descubrimientos nacidos en el CERN que tienen una expresión más directa en nuestra vida cotidiana. Sin ir más lejos, cualquiera que esté leyendo este texto lo hace gracias a que Tim Berners Lee creó la World Wide Web mientras trabaja allí a comienzos de los años 90.
El CERN es un ejemplo único de colaboración internacional. Fundado en 1954, 12.000 científicos de 180 países tienen acceso a los experimentos que se realizan en sus instalaciones. La española Mar Capeans, líder del grupo de tecnología de Detectores del CERN, destaca además otra característica importante del centro: “en el CERN hacemos desarrollos para ciencia básica que evidentemente tienen un impacto en la sociedad, pero nunca con fines militares. Ese es uno de los grandes aportes de Europa”. Uno objetivo este, el de investigar para la vida y el conocimiento y no para uso militar, decisivo si pretendemos seguir avanzando. Al CERN le debemos sin saberlo muchas de las comodidades que hoy disfrutamos y también algunas de las canciones más surrealistas que jamás se hayan escrito en la historia del pop. Sus creadoras son The Horribles Cernettes, un grupo de trabajadoras del centro de investigación, que se definen como la única banda de rock de alta energía. “Nunca pasas las noches conmigo. Tampoco sales con otras chicas. Sólo amas a tu colisionador” cantan… una confesión de desamor que ilustra, sin embargo, la pasión que guía a quienes investigan en el CERN.

Edición: Malu Barnuevo | Georghe Karja
Texto: José L. Álvarez Cedena

El mayor proyecto de investigación sobre la Tierra se pone serio

Tras años de retrasos y desfases presupuestarios, una nueva dirección del proyecto ITER cree que puede lograr su objetivo de demostrar que la fusión nuclear es el futuro de la energía


En el sur de Francia, a 70 kilómetros de Marsella, una coalición internacional en la que participan las principales potencias del mundo está intentando construir un experimento que podría transportar a la humanidad a una nueva era. El ITER es un proyecto que va a tratar de recrear con fines industriales los procesos físicos que convierten al Sol en una fuente de energía tan formidable. Si funcionase, contaríamos por primera vez en la historia con una nueva forma de producción energética abundante, constante y razonablemente limpia. Sin embargo, alcanzar ese objetivo va a suponer un reto a la altura de la recompensa.

Hace unos días, junto a las obras que comienzan a dar forma al lugar que albergará el reactor de fusión nuclear experimental, el organismo reunió a un grupo de periodistas de todo el mundo para mostrar el progreso. El director de comunicación, Laban Coblenz, comenzaba su bienvenida pidiendo “perdón por el retraso”. Las dificultades con el tráfico habían obligado a comenzar la visita una hora tarde. A este estadounidense, amante de la tecnología pese a haber crecido en una comunidad amish, sin acceso a coches o electricidad, no se le debió escapar la ironía del fallo en la puesta en escena. “La narrativa es fundamental en un proyecto como este”, afirmaba después en referencia a las dificultades para mantener el interés por una tarea que puede durar décadas.

Hasta ahora, el ITER ha sido más noticia por los retrasos o los desfases presupuestarios que por sus logros. Cuando se puso la primera piedra de las obras, en 2010, se hablaba de tener listo el reactor para empezar los experimentos en 2019. Seis años después, como si se tratase de los habitantes del país de la Reina Roja de Alicia a través del espejo, que debían correr tan rápido como pudieran para permanecer en el mismo lugar porque el país avanzaba con ellos, siguen quedando nueve años para que el ITER comience a funcionar. Ahora, las primeras pruebas están previstas para 2025.

A principios de este año, el Parlamento Europeo retrasó la aprobación de las cuentas de 2014 del proyecto porque la gestión presupuestaria y financiera no tenía coherencia o estaba incompleta. En 2013, un informe externo culpaba de los retrasos y los gastos desbocados a los problemas de gestionar una organización descentralizada, en la que la Unión Europea, Rusia, China o Japón trataban de imponer sus criterios u obtener mejores contratos para sus industrias. En total, el proyecto aglutina a 35 países.




Cambio de rumbo

Pero la dinámica ha cambiado, o al menos es lo que asegura el nuevo director de la entidad. Bernard Bigot, un prestigioso académico y alto funcionario francés fue elegido director general del Iter hace 18 meses, sustituyendo al japonés Osamu Motojima. Con 65 años, ya pensaba en la jubilación cuando le llamaron para salvar el mayor proyecto de investigación sobre la Tierra. Esa libertad de quien ya está de vuelta de todo, le permitió poner condiciones. El director general debía tener poderes completos para tomar decisiones técnicas. “Antes, cada pequeño cambio producía muchas discusiones”, apuntaba Bigot. Eso generaba inoperancia y costaba dinero. “Tener en marcha este proyecto cuesta todos los días un millón de euros”, señalaba para mostrar la importancia de mantener los plazos y tomar las decisiones a tiempo.

Pese a los obvios problemas de gestión de ITER en el pasado, una declaración de Bigott resulta sorprendente para un proyecto de estas dimensiones: “Ahora, por primera vez desde el comienzo, contamos con una planificación. Antes no se había hecho un análisis de los costes o los tiempos”. Con la nueva planificación, presentada el pasado verano y refrendada como válida por expertos independientes, se calcula que el primer plasma se logrará en 2025 y el experimento final, el que fusionará átomos de deuterio y tritio, llegará hacia 2035. Hasta entonces, el coste de la epopeya rondará los 18.000 millones de euros.

Una vez resueltos los aspectos organizativos, centrémonos en la ciencia. El reactor de fusión que se construirá en el sur de Francia tratará de demostrar si es posible generar electricidad produciendo las reacciones de fusión que tienen lugar en el Sol. Allí, la tremenda presión y las elevadas temperaturas hacen que los átomos de hidrógeno superen su natural repulsión y se unan liberando cantidades ingentes de energía. Por dar una idea del poder del proceso que tiene lugar en las estrellas, con un gramo de combustible de fusión se produciría tanta energía como con ocho toneladas de petróleo.

Para conseguir que los átomos de hidrógeno se fundan en la Tierra, desde los años 50 se han construido un tipo de trampas magnéticas conocidas como tokamaks. A temperaturas muy elevadas, los átomos se liberan de sus electrones y el gas se convierte en un plasma en el que las reacciones de fusión son posibles. Para facilitar esa unión de átomos, el plasma debe estar a unos 150 millones de grados, diez veces más caliente que el interior del Sol. Además, es necesario mantener confinados a esos átomos sobreexcitados durante el tiempo necesario, alrededor de 500 segundos, para que un número suficiente de ellos se una.

Los tokamaks son unos contenedores con forma de rosquilla rodeados por bobinas magnéticas. El diseño, con bobinas circulares a lo largo de toda la rosquilla, hace que en el interior las bobinas estén más apretadas y el campo magnético sea más intenso. Eso hace que las partículas escapasen y físicos como el ruso Andrei Sajarov plantearon un diseño en el que una corriente a través del plasma mantenía el gas en equilibrio.

Durante las últimas décadas, con un impulso especial en los años ochenta, cuando la crisis del petróleo hizo más atractivas opciones energéticas alternativas, los tokamaks se han ido perfeccionando y creciendo. Aunque lograban la fusión, esas máquinas consumían más energía de la que producían. Mark Henderson, uno de los científicos que trabajan en el ITER, afirmaba que el rendimiento de los reactores están mejorando a mayor velocidad que los chips de silicio o los aceleradores de partículas. El ITER debería demostrar que es capaz de generar diez veces la energía que consuma y Henderson está convencido de que el objetivo de la fusión como fuente de energía comercial es alcanzable. “El problema es el tiempo, que depende también del dinero”, plantea. Si no se progresa a la velocidad adecuada, para cuando se logre la fusión, el daño al planeta de los combustibles fósiles podría ser irreversible.

Si los plazos se cumplen y los físicos e ingenieros son capaces de hacer controlable el plasma en un reactor de las dimensiones del del ITER, con 860 metros cúbicos frente a los 100 de los reactores en funcionamiento, en 2035 se probaría la fusión con deuterio y tritio. Estas dos versiones pesadas del hidrógeno se pueden unir a una menor temperatura y hacen más viable la tecnología. Después, con una inversión estimada de 75.000 millones de euros, se pondrían en marcha varios proyectos de demostración entre los países colaboradores. Así se trataría de afinar el diseño para, antes del final de este siglo, construir el primer reactor de fusión nuclear comercial.

Mientras en el sur de Francia se avanza en la construcción de las instalaciones que pongan a prueba la fusión nuclear, se tendrán que seguir desarrollando tecnologías para hacer posible el sueño final. Será necesario probar nuevos materiales que soporten las condiciones extremas del contenedor magnético y se deberán seguir desarrollando industrias hasta ahora innecesarias. Un ejemplo: La producción mundial de cables de niobio con los que se fabrican los gigantescos imanes que se instalarán en el tokamak se multiplicó por diez, de las 15 toneladas anuales a las 150. La máquina alcanzará las 23.000 toneladas, tres veces la masa de la Torre Eiffel repartida en cerca de un millón de componentes de altísima tecnología.

Para los que sueñan, como Mark Henderson, una civilización alimentada por la fusión nuclear se libraría de gran parte de las amenazas medioambientales asociadas a la producción energética actual, como el cambio climático. Los residuos producto de la fusión, mucho menos peligrosos que los de los reactores de fisión actuales, deberían confinarse durante casi un siglo, pero después dejarían de ser radiactivos. Desde el punto de vista político, incluso, el petróleo dejaría de causar problemas. En la próxima década se empezará a ver si el objetivo se acerca o, como dice una broma recurrente, la fusión es la energía del futuro y siempre lo será.

jueves, 19 de octubre de 2017

Una inteligencia artificial aprende sola desde cero el juego más difícil

Un programa de Google DeepMind ha sido capaz de enseñarse a sí mismo a jugar al milenario Go de forma imbatible y sin intervención humana en tan solo tres días

Lo que llamamos futuro, esa visión del mundo excitante y a veces escalofriante que nos muestran las películas de ciencia ficción, puede empezar por cosas como esta. Un sofisticado programa de inteligencia artificial llamado AlphaGoZero, desarrollado por la compañía DeepMind de Google, ha sido capaz de enseñarse a sí mismo a dominar el clásico juego de estrategia Go, que muchos consideran más sofisticado que el ajedrez. Y lo ha hecho desde cero, a una velocidad increíble y sin intervención humana.
La investigación de la inteligencia artificial ha avanzado rápidamente en una amplia variedad de campos, pero su gran reto es desarrollar algoritmos que aprendan conceptos desafiantes desde una pizarra en blanco y con competencia sobrehumana. Y eso, según publica la revista «Nature», es lo que ha logrado el nuevo programa.




Una primera versión del software, AlphaGo, se hizo famosa en 2016 al derrotar al campeón mundial de Go Lee Sedol en un torneo. Pero para lograrlo, fue entrenada durante varios meses a través del aprendizaje supervisado basado en millones de movimientos humanos expertos, combinado con el aprendizaje de refuerzo en solitario. El programa requirió 48 TPU (chips especializados que funcionan de forma similar a las redes neuronales).
Pero AlphaGo Zero es mucho más listo. Aprende únicamente jugando contra sí mismo, a partir de movimientos aleatorios, con solo el tablero y las piezas como entradas y sin que ningún humano le diga cómo hacerlo. Convertido en su propio maestro, mejora con cada repetición de juego automático. Usa solo cuatro TPU para «pensar» cada jugada en 0,4 segundos.
Después de tan solo tres días de entrenamiento, lo que incluye casi 5 millones de juegos solitarios (frente a los 30 millones durante varios meses de la primera versión), el nuevo software ya estaba preparado para superar a los jugadores humanos y derrotar a todas las versiones anteriores de AlphaGo por cien juegos a cero. Incluso descubrió por sí mismo algunos de los mismos principios del juego que los humanos han tardado miles de años en conceptualizar y también desarrolló estrategias novedosas.
Un juego inteligente

AlphaGo Zero «muestra cuánto progreso podemos hacer incluso con menos potencia de computación y cero uso de datos humanos», explica Demis Hassabis, confundador y primer ejecutivo de DeepMind. El Go es solo un juego, pero no uno cualquiera. Muy popular en países como China, Corea del Sur o Japón, el objetivo es conquistar el mayor territorio posible posicionando unas piedras blancas y negras sobre un tablero. Las reglas son sencillas, pero las posibilidades múltiples. Edward Lasker, un maestro del ajedrez y gran entusiasta del Go, llegó a decir que «si existen formas de vida inteligente en otros lugares del Universo, casi sin duda jugarán al Go». En cierto sentido, los de DeepMind demuestran que Lasker no estaba equivocado.
«Esta no es la primera vez que una inteligencia artificial aprende por sí misma, pero sí es la primera vez que aprende a jugar a algo tan complejo y bello como es el Go, y ha logrado un desempeño que está por encima del rendimiento del mejor humano. Es un resultado impresionante», explica a ABC Satinder Singh, del Departamento de Ciencias de la Computación e Ingeniería de la Universidad de Michigan, en Ann Arbor, quien ha trabajado en la construcción de agentes artificiales que pueden aprender por sí mismos durante veinte años y es autor de un artículo que acompaña al estudio en «Nature».
Pero jugar al Go no será el único objetivo de esta nueva tecnología, sino que hay otros más ambiciosos y con mayor impacto social fuera del tablero. «En última instancia, queremos aprovechar el algoritmo para ayudar a resolver todo tipo de problemas apremiantes del mundo real como el plegamiento de proteínas o el diseño de nuevos materiales. Si podemos hacer el mismo progreso en estos problemas, AlphaGo tiene el potencial de impulsar la comprensión humana e impactar de forma positiva en nuestras vidas», asegura Hassabis.

viernes, 9 de junio de 2017

El genio que inventó el motor de Google, a quien nadie conoce

El mundo de la ciencia y la tecnología se asemeja a veces a un a una
gran feria de las vanidades.



La búsqueda de la medalla, del premio, del
reconocimiento o -todo junto- la gloria de pasar a la historia como uno
de esos seres humanos que hicieron un aporte al avance de la humanidad,
conducen a injustos olvidos y relegan a un segundo plano a muchos genios
 anónimos. Vivimos rodeados de objetos que nos hacen las cosas más
sencillas, y que fueron creados gracias al ingenio de mujeres y hombres
de los que no conocemos el nombre. Todos podemos enumerar de carrerilla
quiénes eran Tomas Alva Edison, Alexander Graham Bell, Guillermo Marconi
 o Isaac Peral. Pero pocos saben quién fue el ingeniero que descubrió
que las ondas utilizadas por los radares podían utilizarse para cocinar
palomitas de maíz. Aunque la mayoría aprovechemos su idea a diario para
calentar la leche en un horno microondas.


Massimo Marchiori es uno de esos tipos. Su nombre es completamente
desconocido para la mayoría y, sin embargo, es posible que algunos de
los que están leyendo esto ahora hayan llegado hasta esta página gracias
 a él. Porque Marchiori es el matemático que ideó el famoso algoritmo de
 Google. De su cabeza salió el corazón de la bestia, el secreto que ha
llevado a la compañía a convertirse en una de las empresas tecnológicas
más poderosas del mundo. Lo curioso es que Marchiori, después de
presentarla en una conferencia internacional, cedió su idea para que la
desarrollaran Larry Page y Sergey Brin. En una época en la que todos
los  jóvenes relacionados con la tecnología, aunque sea tangencialmente,
 buscan hacerse millonarios y entrar en ese club de rockstars en que se
han convertido los gurús de Internet, Marchiori eligió seguir
investigando. Y no se arrepiente: “ganar dinero para una determinada
empresa y aumentar mi cuenta bancaria no es lo que quiero hacer en la
vida”.





El italiano, que después de pasar algunos años en el MIT vive y
trabaja cerca de Venecia, insiste en que su objetivo siempre fue hacer
algo para mejorar la vida de las personas y que eso no se puede
conseguir desde una compañía que está atada por la cuenta de resultados.
 Por eso, asegura, no envidia a los fundadores de Google, ya que él dice
 que solo necesita “un sitio donde dormir y tiempo para pensar”. Esta
libertad es la que le hace observar el desarrollo de Internet, con
Google a la cabeza, con la distancia analítica de los verdaderos
científicos, y considera que ha llegado la hora de que cambiemos la
forma en que nos relacionamos con la red: “hasta ahora los buscadores
son como el oráculo de Delfos: metes las palabras clave y esperas para
obtener el resultado”.

Marchiori trabaja en un tipo de buscador más dialogante, que incluya
una dimensión social y en el que la inteligencia artificial que se
encuentra detrás nos permita relacionarnos con Internet con mayor
naturalidad. El objetivo, en definitiva, es hacer de la tecnología un
espacio más humano: “aquellos que entienden como se hace la buena
tecnología saben que al final lo que tiene que haber es un corazón
detrás” dice Marchiori. Sin duda, el italiano se merece un lugar en
nuestra memoria; por mucho menos Percy Specser, el inventor del
microondas, tiene un edificio en Massachusetts que lleva su nombre.

martes, 1 de noviembre de 2016

Sunway TaihuLight: así es el superordenador más rápido del mundo

Esta "divinidad de la supercomputación" triplica en rendimiento a su más cercano competidor, también chino
En la más reciente clasificación Top 500 mundial de superordenadores China ocupa un lugar destacado desde hace unos meses cuando el Sunway TaihuLight (“La luz de la divinidad Taihu” en chino) pasó a ocupar el primer lugar del mundo desbancando a otro equipo también chino, el Tianhe-2. Lo más sorprendente fue que adelantó al poseedor del título por algo más que una pequeña mejora: el poderío del Sunway TaihuLight es tal que prácticamente triplicó su velocidad, pulverizando la marca anterior.
China ocupa a día de hoy la mayor parte de los puestos del Top 500 internacional, una listas que se actualiza cada pocos meses desde hace más de una década, superando incluso a Estados Unidos. El TaihuLight ha sido desarrollado por el NRCPC (Centro de Investigación Nacional de Tecnología e Ingeniería de Computación en Paralelo) y está instalado en el Centro Nacional de Supercomputación de China en Wuxi, en la región de Jiangsu.
Sus creadores muestran con orgullo el superordenador que tiene una característica muy peculiar: es cien por cien de fabricación china. Hoy en día es difícil no utilizar algún componente japonés o estadounidense, pero en el Sunway TaihuLight incluso los procesadores (el SW26010 de 260 núcleos o cores) están diseñados y fabricados allí. Todo un orgullo para el país.
Cifras que asombran
El TaihuLight tiene un rendimiento espectacular de 93 petaFLOPS. Un petaFLOP son miles de billones de operaciones de coma flotante por segundo: cálculos tales como realizar la división de dos números con decimales y similares. Y su velocidad punta alcanza los 125 petaFLOPS. Para estas mediciones se utiliza un software de pruebas de rendimiento llamado Linpack.
Comparativamente, un ordenador de sobremesa moderno equipado con un procesador Intel Core i7 es millones de veces más lento: puede alcanzar entre 2 y 4 gigaFLOPS aproximadamente (que serían unos 0,000002 petaFLOPS). No son exactamente iguales y comparables, pero a grandes rasgos podría entenderse la velocidad del superordenador chino como unos 20 millones de veces superior. En términos más realistas, sabemos también que recientemente un proyecto de computación distribuida por Internet llamado Folding@Home, con unos 110.000 equipos de todo tipo conectados en todo el planeta, alcanzó el récord de los 100 petaFLOPS conjuntos. El TaihuLight estaría en el mismo orden de magnitud pero en un tamaño que permite alojarlo en una sola habitación de unos cien metros cuadrados.
Tecnologías punta de supercomputación
En la computación en paralelo del TaihuLight millones de procesadores iguales se reparten los cálculos a realizar de forma armoniosa y sincronizada. En concreto hay 260 núcleos en cada uno de los procesadores de sus 40.960 nodos, lo que totaliza más o menos 10 millones de procesadores. Cada uno de ellos corre a una velocidad más bien convencional: 1,45 GHz.
Pero los problemas a esta escala no son tanto la velocidad de cada procesador sino cómo se comunican entre ellos y la agilidad para transferir los datos a la memoria, la red local y los sistemas de almacenamiento, que resultan normalmente mucho más lentos.
Los procesadores, por ejemplo, pueden mover datos a la memoria a unos 136 gigabits por segundo localmente. Cada procesador lleva 32 GB de memoria, lo que totaliza 1,3 petabytes para toda la máquina. Eso es un millón de gigabytes aproximadamente, memoria del tipo DDR3 como la que se instala en los equipos convencionales.
También puede transferir datos a los dispositivos de almacenamiento a alta velocidad: 16 gigabits por segundo (mediante tecnología PCIe 3.0), básicamente unidades de disco que suman 20 petabytes en su conjunto – unas 20.000 veces más almacenamiento que un equipo de sobremesa con un disco duro de 1 terabyte. En el TaihuLight caben tantos datos como los que genera el Gran Colisionador de Hadrones del CERN en un año.
Otro punto que se tiene en cuenta cada vez más en el diseño de estos superequipos es el factor del consumo energético. El TaihuLight requiere 15 MW (megavatios) de potencia a pleno rendimiento, lo que resulta en una eficiencia de unos 6 gigaFLOPS/vatio. Esto lo sitúa en el tercer puesto entre los más eficientes el mundo, aunque en parte es gracias a que no tiene tanta memoria como cabría esperar para un equipo de este tamaño. Comparativamente, un ordenador portátil necesita unos 50W y un equipo de sobremesa entre 100 y 200W, así que se podría decir que el TaihuLight necesita la misma energía que un millón de ordenadores caseros.
Si alguien se preguntaba por qué los ingenieros intentan reducir tanto el consumo de estas mastodónticas máquinas basta pensar en que tanta energía contribuye negativamente al cambio climático, problema que irónicamente están destinados a estudiar mediante simulaciones del clima, aunque también se dediquen a la búsqueda de yacimientos petrolíferos. En cualquier caso, hay otra buena razón: la factura de la electricidad debe ser bastante abultada.

martes, 18 de octubre de 2016

Así es Pixel, el ‘mata iPhones’ de Google

El móvil modelo de la compañía del buscador destaca por su cámara y diseño
Google ha dado un paso de gigante. Pixel es el teléfono a medida para sus ambiciones.
Un auténtico mata-iPhone. No lo ha conseguido a la primera, ni a la segunda, sino que ha tardado, para, por fin, hacer de principio a fin un teléfono acorde con la gama más alta del sistema operativo más usado en el mundo. Pixel está pensado de principio a fin para sacar lo mejor de Android Nougat. Tiene la potencia de los últimos componentes -procesador de Qualcomm al frente- y un acabado fuera lo normal.

Aunque está fabricado por HTC no se percibe en ningún momento. De hecho, no se adivina la marca. Solo la parte trasera presenta una G como único emblema. Está debajo de uno de sus aciertos, el lector de huellas. Está situado de modo que el dedo índice cae sobre el sensor al tomarlo por los lados. Así se desbloquea nada más sacarlo del bolsillo. Los anteriores Nexus ya contaban con este sistema y ahora es todavía más rápido.
Google no ha querido entrar en la guerra de los megapíxeles. La dará por superada y apuesta por 12, pero sí en la del sensor, extremadamente luminoso. El resultado sorprende por su capacidad para jugar con el color, adivinar el tipo de escena y disparar en ráfaga sin demora de manera indefinida.
El estabilizador, combinación de mecánico y óptico, ofrece excelentes fotografías y vídeos, en movimiento o con poca luz. Además de esta solución, han añadido una capa de software que hace una predicción de movimiento para que apenas se perciba oscilación en el vídeo.
Pixel se ofrece en dos tamaños, con pantalla de cinco y de cinco pulgadas y media. También con dos capacidades, de 32 y de 128 gigas de memoria interna. El resto es similar. Al contrario de lo que sucede con el iPhone, la cámara, potencial y demás detalles son similares. El precio comienza en 649 dólares libre, y se puede pagar a plazos si se opta por adquirirlo a través de Verizon, la única operadora del país que lo ofrecerá. La teleco pretende paliar así el fiasco del Note 7, vendiendo el Android más esperado del año, mientras que Google quiere asegurarse un canal de venta y distribución más allá de su tienda online y su todavía minoritaria operadora Fi.
La batería, durante el día de prueba, aguantó con un 30% restante al final de la jornada laboral. Aunque es suficiente, Google incluye un cargador rápido para ayudar en el punto más flaco de los móviles. Usa la clavija de nueva generación, cada vez más popular, USB C, pero todavía lejos de ser mayoritaria.
En la puesta a punto llama la atención que ofrece mudanza de datos, permite configurar el móvil como uno nuevo o tomar los datos de otro Android o un iPhone, ya sea a través de ła nube o con un cable que ellos mismos añaden. Quieren que el paso de un teléfono a otro sea lo más sencillo posible.
Pixel presenta un almacenamiento 32 gigas o 128, sin posibilidad de ampliarlo con tarjeta adicional. El móvil es un aparato cerrado. No se puede quitar tampoco la batería. Google ha resuelto esta limitación con la opción de guardar en la nube fotos y vídeos de alta calidad gratis.
Allo, el asistente virtual de voz y texto, funciona muy parecido a Siri y tiene el mismo problema, le falla el contexto. Responde la primera pregunta, pero le cuesta acertar con la siguiente si tiene que ver con la anterior, si se plantea como algo fluido, en lugar de una nueva petición.
En el envoltorio del móvil venía un anuncio: “Próximamente en español”. Es una buena y una mala noticia. No sabe español, pero se está preparando. Ahora mismo, si se hablar en castellano dice no entenderlo o, con algunas palabras, lo traduce el inglés de manera automática. ¿Significa que será capaz de mantener conversación en otro idioma? Seguramente antes de lo esperado, pero no quieren hacerlo con errores.
La sensación que deja el asistente es de frialdad. No es de extrañar que Google haya contratado a humoristas para mejorar los giros de lenguaje y contestaciones para cuando salga Home al mercado, su versión de la inteligencia artificial integrada en el hogar. Se supone que de aquí a final de año todas łas novedades mostradas el 4 de octubre se podrán comprar en Estados Unidos. Del resto del mundo no hay fechas concretas. Tampoco para Pixel.
Entre lo mejorable, que también lo hay, están precio y diseño, sobre todo, pero también un el asistente. Sundar Pichai apareció en el escenario con un lema que repitió de manera sucesiva, Google ya no es una empresa que pone el móvil por delante, sino la inteligencia artificial. Esa es su prioridad. Por eso Pixel pone al asistente en el botón principal. Si se deja pulsado, comienza la conversación, igual que con Siri.

Queda, además, otra duda: ¿qué pasa si los humanos no queremos hablar con máquinas? ¿Si resulta que es pesado hablar con una interfaz? Muchos consideran posible hacerlo en soledad, pero apetece menos si se está acompañado. ¿O si se tienen problemas para hablar? Es cierto que todo se puede hacer, por ahora, a través del menú de aplicaciones, como cerrar una cita o reservar un restaurante, pero también lo es que el plan de Google pasa por conocer mejor el uso que se da para, paulatinamente, adaptar la interfaz clásica a una modalidad que combine voz y teclado. Quizá también se tengan en cuenta gestos en una fase siguiente. Esto significa que, si la adopción de esta modalidad de interacción entre humanos y máquinas es rápida y positiva, pronto cambien las interfaces y pongan más peso en gestos y órdenes de voz.
No, Pixel, no es un teléfono más, es el Caballo de Troya de Google para entender cómo quieren que sea la computación del futuro. Con hardware excelente, pero sin sabor propio. Pagar 649 dólares por algo que, a primera vista, parece un iPhone no es demasiado atractivo. Es muy probable que se convierta en un móvil de culto para los fanáticos de Google. Sin duda, marca un hito. Pero no será un súper ventas. Lo que está claro es que sienta las bases para las próximas generaciones de Android, servirá de inspiración para que otros fabricantes sigan su estela. Es muy probable que la gama alta de 2017 tome ideas del Pixel.

El grave error de Samsung con el Galaxy Note 7 que nadie fue capaz de remediar


Lo peor no son las pérdidas, es el daño en la reputación y el valor de marca. ¿Qué es lo que esta empresa debe hacer para salir a flote?


Una crisis empresarial de la magnitud que tuvo la de Samsung, con su reciente “affaire Galaxy Note 7”, es como una tormenta de truenos.

No termina con el desplome del precio de las acciones, una alerta de los contadores por pérdidas de beneficios en un cuatrimestre y la llamada a que los usuarios devuelvan el producto fallado.
Nada de eso: las ondas expansivas del primer “trueno”, el problema de diseño del Note 7, se harán sentir por años y causarán un daño incalculable en la reputación de la empresa surcoreana.
Por qué explotan las baterías de teléfono Galaxy Note 7 de Samsung
Los expertos de marketing señalan que lo que está en juego para Samsung es su valor de marca. Lo que en la jerga se llama brand equity, el valor comercial que deriva de la percepción que tiene el usuario de la compañía y sus valores, más que del producto o servicio puntual que ésta venda.
El concepto trae asociado ideas de fidelidad del cliente, prestigio e identificación positiva de la marca.
Para las grandes corporaciones, este valor de marca es uno de sus activos más valiosos y trepar desde el abismo que genera una reputación corporativa dañada puede ser un asunto largo, doloroso y muy costoso.
Si no miren a la automotriz alemana Volkswagen, que todavía está tratando de limpiar su nombre tras el escándalo de las emisiones, el año pasado.
Por entonces, se reveló que la empresa había estado manipulando durante años las pruebas para las emisiones contaminantes de sus autos diésel en Estados Unidos.
    El impacto del escándalo de Volkswagen en la marca “Hecho en Alemania”

O piensen en Whirlpool, que tiene que modificar cinco millones de secadoras de ropa falladas que corren el riesgo de prenderse fuego.
Y luego está el caso de la empresa de entretenimiento Merlin Attractions, en Reino Unido, dueña del parque temático Alton Towers, que el mes pasado recibió una multa de US$6,1.
La pena fue consecuencia del accidente en una montaña rusa que causó heridas graves a cuatro personas, entre ellas dos adolescentes que sufrieron amputaciones en las piernas.
    Tragedia en la montaña rusa de Alton Towers: “Sólo quería morirme”
Pero, ¿qué hacer con una reputación dañada? ¿Cuál es la mejor manera de intentar lavarla y recuperar la buena imagen a los ojos de los consumidores?
“Haz lo que deba hacerse”
Tim Ward, director ejecutivo de Quoted Companies Alliance, el organismo que representa a las pequeñas y medianas empresas de Reino Unido que cotizan en el mercado de valores, dice que apenas se desata una crisis, los empresarios deben recurrir a sus departamentos de relaciones públicas (RR.PP.), antes de llamar a sus abogados.
“Se trata de salir al frente, de dar el primer paso con el pie derecho, y tener un plan claro sobre cuáles podrían ser las eventualidades”, le dice a la BBC. “La base de todo es la comunicación adecuada.”
En un sondeo que realizaron entre los miembros de la alianza, la mayoría de los directivos señaló que ante el primer signo de escándalo recurre a su equipo de RR.PP. y no a su departamento legal.
Los expertos en la materia aún estudian el caso de Johnson & Johnson en 1982, todo un ejemplo de manejo de crisis corporativa.
Su analgésico más vendido, Tylenol, causó la muerte de siete personas en Chicago, con cápsulas de la droga contaminadas con cianuro en un caso de sabotaje que hasta hoy, no ha podido esclarecerse del todo.
Por esa época, el proceso de sacar de la venta un producto dañado y solicitar la devolución a aquellos que lo habían comprado (lo que en las industrias se llamaproduct recall) no era común.
Y Johnson & Johnson puso al consumidor por sobre cualquier otra variable y retiró 31 millones de botellas de Tylenol en el mercado.
Pocos pensaron que la marca saldría a flote tras la tragedia. Pero un año más tarde, el valor de sus acciones se había recuperado casi por completo y el presidente de la compañía, James Burke, se había convertido en un héroe por su habilidad en el manejo de la crisis.
“Si uno tiene integridad en su gestión del negocio, entonces ese es el lugar desde donde se debe actuar”, opina Ward.
“Decirlo es un lugar común, pero se debe hacer lo correcto. Como dijo (el magnate estadounidense) Warren Buffett, se necesitan años para construir una reputación y apenas unos minutos para destruirla.”
Doble error
Neil McLeod, consultor en la empresa de gestión de crisis y manejo de reputación PHA Media, cree que Samsung tendrá que sufrir primero, antes de recuperar la confianza de los usuarios.
Especialmente porque después de los primeros problemas con el Note 7 no detuvo la producción: eso fue recién cuando los reiterados incendios de los equipos que había entregado como reemplazo llevaron la crisis a otro plano.
“Son una empresa de tecnología y no parecían tener idea de cuál era el problema”, dice McLeod.
“Se habla de un déficit de US$17.000 millones en sus cuentas a largo plazo. Samsung puede absorber esa pérdida, pero realmente depende de si logra que los clientes confíen en sus otras líneas de productos”.
    5 preguntas sin responder sobre el error que lleva a explotar a los Galaxy Note 7
Su reacción inmediata, coinciden los analistas, no fue la que dejó a la empresa surcoreana mejor parada.
“Creo que Samsung tenía que actuar más rápido para detener el flujo de daños que afectó a la empresa en sentido amplio, esa decisión de insistir con el producto(y dar teléfonos de reemplazo)”.
“Es evidente que algo salió muy mal dentro de la empresa… Hacerlo mal una vez es bastante dañino, para hacerlo una segunda vez es increíble”.
Ponerle nombre, dar la cara
McLeod dice que, desde una perspectiva de relaciones públicas, es importante que las empresas tengan una cara visible cuando se enfrentan a una crisis, algo que aún no ha ocurrido en el caso de Samsung.
“He visto declaraciones y comunicados de Samsung, pero no he visto la cara de Samsung en todo esto”, distingue. “No he visto a un director general que traiga tranquilidad y no sé quién está manejando todo esto”.
“En cualquier escenario de crisis se necesita un líder fuerte para salir adelante y para tranquilizar a la población con su tono, su presencia y su respuesta a la crisis“.
Dimitrios Tsivrikos, psicólogo especializado en consumo y negocios de University College de Londres (UCL), dice que las empresas tienen que darse cuenta de que pedir la devolución de su producto defectuoso es sólo un primer paso.

“Se trata de ser rápido y tener confianza y asumir la responsabilidad. Las empresas no pueden negar lo que ocurre. Aquellos que han tratado de ocultar estas cosas en el pasado han pagado un precio mucho más alto en términos de pérdida de confianza del consumidor.”
Y una vez que la empresa pierde su condición de “deseable” a los ojos del cliente, se “queda sin nada”, agrega Tsivrikos.

Asumir la responsabilidad y pedir perdón
En las oficinas de Merlin, la empresa dueña de Alton Towers, el director de asuntos corporativos James Crampton señala que, mientras que el parque temático tenía planes de contingencias en caso de que ocurriera un accidente como el del año pasado, siempre existía la esperanza de que nunca tendrían que ponerse en marcha.

“Nunca subestimamos la gravedad del incidente, y nuestras respuestas, tanto la inmediata como la posterior, fueron impulsadas por el deseo de hacer lo que creíamos que era lo correcto para todos los damnificados “, dice el ejecutivo.

El director ejecutivo de Merlin, Nick Varney, asistió de inmediato a la escena del accidente en Alton Towers y asumió en persona la responsabilidad de la comunicación.

Admitir la responsabilidad en el hecho, dice Crampton, fue una parte importante del proceso, y la compañía la asumió por completo desde el primer día. Y eligió, además, no empezar un largo proceso de consulta con abogados y otros asesores: salir y dar la cara.

No tratamos de ocultarnos detrás de abogados”, dice.
Las reglas del RR.PP. dicen que no hay otra manera de salir al cruce de una crisis.