[MiIT}— Gmail y su ‘cómoda’ verificación de 2 pasos

05-11-2021

Carlos M. Padrón

Desde hace muchos años manejo a través de Outlook las varias cuentas gmail.com que tengo, pues sería un fastidio tener que entrar a ellas, una por una y varias veces al día, para enviar o comprobar si han recibido algo nuevo. Para conseguir eso, en cada cuenta tuve que habilitar la opción de “Aplicaciones menos seguras”, pues parece que, para Google, Outlook es una aplicación poco segura.

Desde hace unos días Google anunció que, en aras de la seguridad, a partir del próximo martes 9 de noviembre aplicará automáticamente a todas las cuentas gmail.com, quiera o no quiera el usuario, lo que han llamado Verificación en dos pasos. Esto significa que, para entrar en una cuenta gmail.com no sólo hará falta la contraseña que ya se tenía, sino también otra que dará Google.

Si un usuario quiere, puede habilitar desde ya la Verificación en dos pasos (más abajo explico cómo). Para ello, en relación con la cuenta que se quiera —como ejemplo usaré una que llamaré dospados@gmail.com— escogí mi teléfono móvil/celular como medio para recibir una notificación que deberé aprobar a fin de que funcione la Verificación en dos pasos.

Pero una vez activada la tal Verificación en dos pasos comenzó a aparecer en mi Outlook un mensaje de error que decía que, bien el usuario o bien la contraseña que yo había dado para dospasos@gmail.com, no eran correctos. Es el mismo mensaje que sale para cada una de mis cuentas gmail.com cuando, usando un VPN, me conecto a un servidor al que no me había conectado antes, y Google me avisa porque supone que un desconocido está tratando de entrar a mis cuentas, así que en estos casos debo ir a Gmail, abrir cada una de mis cuentas gmail.com e ir contestando ‘Sí, fui yo” a la pregunta que al respecto me hará Google.

Pero ahora eso no funcionó, y nada había yo cambiado en la configuración que para dospasos@gmail.com tengo en Outlook, y por más que la repasé y hasta cambié la contraseña, el mensajito seguía apareciendo.

Conectándome a USA me di a la tarea de averiguar en inglés, y encontré que ya Google eliminó la opción de habilitar “Aplicaciones menos seguras” y, en consecuencia, si quiero manejar desde Outlook una cuenta gmail.com debo solicitar una Contraseña de aplicación que Google me dará y que debo poner en Outlook en vez de la contraseña que ahí ha tenido hasta ahora dospasos@gmail.com.

Este procedimiento de solicitud de Contraseña de aplicación nos dejará con dos contraseñas para la cuenta dospasos@gmail.com:

  1. Ésta, la 1, es la misma que, dentro de Gmail, dimos para esa cuenta cuando la creamos.
  2. La 2, la de aplicación, es un código de 16 caracteres que este procedimiento nos dará en el paso 6. Además de que, por precaución, conviene guardarlo en archivo aparte, hay que copiarlo e ir luego a Outlook > Herramientas > Configuracion de Cuenta > Abrir la cuenta dospasos@gmail.com y pegarlo en la ventana Contraseña de forma que reemplace a lo que en esa ventana haya

Describo el procedimiento que seguí para crear la contraseña de aplicación para la cuenta dospasos@gmail.com y conseguir que funcionara para ella la Verificación en dos pasos. OJO: hay que mantener a mano la contraseña 1 de la cuenta en la que se quiere habilitar la Verificación en dos pasos, pues el procedimeinto la pide varias veces.

Procedimiento

  1. Ir a Gmail y abrir dospasos@gmail.com.
  2. Clicar en el círculo que está en la esquina superior derecha, el que se usa para cerrar la cuenta, luego en Gestionar tu cuenta de Google y luego en Seguridad, que está al lado izquierdo de la pantalla.
  3. En Iniciar sesión en Google (tercera sección contando de arriba a abajo) activar Verificación en dos pasos. Ahí escogí mi teléfono móvil/celular como medio para usar esa verificación, y por SMS recibí un código que di al procedimiento de Google, con lo cual la Verificación en dos pasos quedó activada.
  4. Volver a Iniciar sesión en Google. Para regresar, clicar en el símbolo < a la izquierda de la pantalla, y seleccionar Contraseñas de aplicación. que está debajo de la Verificación en dos pasos. que usamos antes. (Hay que iniciar sesión varias veces, y generalmente no funciona ‘copiar’ y ‘pegar’para pegarla en su ventana no funciona ‘pegar’, sino ‘copiar’ y, en ve<zde pegar, ‘Ctrl.+V’).
  5. En Contraseñas de aplicación hay dos opciones: ‘Seleccionar aplicación’ y ‘Seleccionar dispositivo’. Abrí Seleccionar aplicación y, como para el correo (mail) uso Outlook en mi PC con Windows, elegí Correo. Luego, abrí Seleccionar dispositivo, elegí Computador Windows y cliqué en Generar.
  6. El resultado fue que en una barra de fondo amarillo apareció un código de 16 caracteres (contraseña 2). Después de guardarlo, como ya dije, lo copié, fui a Outlook > Herramientas > Configuración de Cuenta, y lo pegué en dospasos@gmail.com en lugar de la contraseña que ya tenía esa cuenta. Usé la Comprobación de configuración y el resultado fue bueno. OJO: La contraseña para entrar a dospasos@gmail.com desde Gmail sigue siendo la 1, o sea, la misma que se puso al crear esa cuenta.
  7. Hecho, y listo. Cerrar la cuenta en Gmail.

Luego recibí en Outlook un par de mensajes. Uno, anunciando que la cuenta dospasos@gmailcom tenía activada la Verificación en 2 pasos; otro, pidiendo que entrara en ella para comprobar que la operación la había hecho yo. Lo hice, apareció un aviso de activación de Verificación en dos pasos y la petición de ingresar un código que había sido enviado a mi teléfono. Lo ingresé, y asunto concluido.

El mensajito de error no ha aparecido más, y la cuenta en la que, para probar, activé la Verificación en dos pasos envía y recibe bien desde mi Outlook. Ya he hecho lo mismo para las demás, pues prefiero hacerlo yo que esperar a que Google lo haga sin más.

[*MiIT}– Por una simple cámara web

02-09-2019

Carlos M. Padrón

De acuerdo con lo que conté en el artículo La última mala jugada de mis ciberbrujas: muerte sin causa conocida… hasta ahora, la última vez que mis poderosas ciberbrujas me atacaron fue en 2015, y desde entonces y hasta este mes de agosto de 2019 no había vuelto yo a sufrir de sus embates… hasta el pasado 23/08.

Recuerdo que cuando empaqué mis artículos de computación para traerlos a Canarias, incluí la cámara web y el ratón que por años había usado yo en mi PC con Windows 7, pero cuando ya en Canarias quise instalarlos no los encontré por ningún lado, así que compré unos nuevos, los instalé y funcionaron muy bien.

Pero el pasado 22/08 me puse a buscar algo y, sin querer, di con la cámara web y el ratón “perdidos”, y, previa desinstalación de los que había comprado yo aquí, los instalé usando los DVDs con los drivers respectivos. El 23/08 noté que el ratón no funcionaba bien, y cansado de no poder arreglarlo instalé el otro. Sospechando que tal vez la cámara web tampoco funcionaría, probé a usarla y, efectivamente, no funcionaba.

Por si acaso su driver había quedado mal instalado, lo desinstalé con REVO, monté de nuevo el DVD correspondiente para volver a instalar el driver…. pero el sistema no lo “vio”. Olvidé la cámara web y el ratón traídos de Venezuela y pude instalar de nuevo, sin necesidad de drivers, los comprados aquí.

El sistema no “vio” el DVD de la cámara porque la unidad CD/DVD no estaba funcionando bien, de ahí que el icono que para ella tenía yo en el escritorio presentaba un signo ‘?’ en azul, y ese icono no aparecía en los componentes de My Computer. Sin embargo, la luz piloto de esa unidad encendía bien, y respondía bien también el botón que la abre o cierra, pero si en ella colocaba yo un CD o DVD no había reacción alguna; era como si mi Windows 7 no “viera” esa unidad ni reconociera su existencia. Por lo demás, el sistema iba bien, y aplicar el SFC /scannow así lo confirmó.

Comprar una unidad CD/DVD externa me sonaba a derrota y a posible gasto innecesario, pues recordé que la unidad CD/DVD que mi PC tenía sí había funcionado bien cuando por primera vez instalé los drivers del ratón y de la cámara web que yo había traído de Venezuela. Suponiendo entonces que el driver de ATAPI correspondiente a esa unidad se había estropeado, seguí los pasos que para resucitarlo se recomiendan (borrarlo, reiniciar para forzar que el sistema detecte el driver y lo instale, etc.), pero el resultado era, a veces, una pantalla de error, y ninguno de los pasos funcionó, según indican las figuras que siguen.

clip_image001

clip_image003

clip_image004

clip_image005

Recurrí entonces a activar una copia del System Restore hecha cuando todo funcionaba bien, pero al término del proceso recibí el aviso de que no había tenido éxito debido a un error. Intenté con el System Restore de fecha anterior, pero el resultado fue el mismo. Según lo que en Google encontré al respecto, ese error podría corregirse intentado varias veces la misma operación o ejecutándola desde Safe Mode (Modo seguro), cosa que hice, pero con idéntico resultado negativo.

Intenté restaurar el registro (semanal o quincenalmente hago respaldo de él) a una fecha cuando el sistema funcionaba bien, pero esa operación también daba error y no podía completarse.

Una posible solución era configurar el sistema para que arrancara por un DVD, montar el DVD original de mi Windows 7 y escoger la opción de Reparar el Sistema, pero eso no me serviría porque la unidad CD/DVD no funcionaba, como tampoco me serviría para aplicar la opción drástica, o sea, la de usar la última copia del Windows (o respaldo de System Image, algo que hago también semanal o quincenalmente) hecha antes de que apareciera el problema, y reemplazar con ella el Windows 7 que daba esos errores; y no me serviría por lo mismo: porque para esto tendría que usar también la unidad CD/DVD que no funcionaba.

Una alternativa era pasar a un pendrive el contenido del DVD del Windows 7 original, pedir que el sistema arrancara (hiciera booting) desde ese pendrive, y usar luego la herramienta Reparar el Sistema que debería estar entre las de la primera pantalla resultante.

En casos como éste es de gran ayuda el tener a mano otra PC que funcione bien, y Mierdovo —como llamo a la laptop Lenovo que hace tiempo llevaba conmigo cuando me iba de viaje— me sirvió para hacer bootable el pendrive y copiar luego a él todos los files del DVD original de Windows, así que apliqué el procedimiento, y cuando ya montado el pendrive en mi PC pedí que éste arrancara por él, en las pantallas resultantes no estaba la opción de Reparar el Sistema, sino sólo la de reinstalar el Windows.

Entonces se me ocurrió hacer algo que a todas luces parecía tonto: a pesar de que la unidad CD/DVD no funcionaba, monté en ella el DVD de mi Windows 7 original y pedí que el sistema arrancara por él. Para mi sorpresa, mezcla de asombro y cabreo (arrechera), el sistema así lo hizo. De las varias opciones disponibles en la pantalla resultante apliqué la de Reparar el Sistema, y al final recibí el mensaje de que si yo había instalado últimamente una cámara web o un disco nuevo —cosa que, según ya dije, sí había yo hecho—, reiniciara el sistema. Lo hice, pero todo siguió igual.

Volví entonces a la tal pantalla y apliqué la opción de System Restore. El resultado fue el mensaje de que no pudo llegar a final feliz debido a un error cuyo código no era el antes mencionado. Ya cansado decidí abandonar por el momento mis intentos, y al regresar al inicio normal del Windows apareció el mensaje de que el System Restore había funcionado muy bien. ¡Algo de locos!

Sólo me quedaba la opción drástica, y antes de recurrir a ella decidí arriesgarme a seguir uno de los procedimientos de los varios que mi amigo exIBMista Leonardo Masina —a quien pedí ayuda porque él es muy bueno en algo que no hago bien: buscar en internet— y que era uno de los tantos sugeridos para recuperar el icono de la unidad CD/DVD; es el explicado AQUÍ, que temía yo usar porque implica meterse con el registro, pero decidí aplicarlo porque siempre me quedaba la opción drástica y, para mi grata sorpresa, ese procedimiento funcionó y el icono de la unidad CD/DVD apareció de nuevo en My Computer.

El 29/08 en la noche pude dormir bien. Lo triste del caso es que hace tal vez más de un año que no uso la cámara web, pero algo aprendí de este entuerto.

[MiIT}– Cambio de cuenta por rara falla de madgri@gmail.com

18-01-2018

Carlos M. Padrón

Desde hace años, todas mis cuentas de correo las manejo con Outlook 2007, pero ayer la cuenta madgri@gmail.com se negó a enviar mensajes aunque sí los recibe. Sin embargo, si la uso desde el browser recibe y envía bien, pero si trato de usarla desde Outlook aparece cada pocos segundos este fastidioso pantallazo que entorpece lo que ese momento esté yo haciendo,

clip_image001

Y si desde su configuración en Outlook pido ejecutar un mensaje de prueba, recibo este otro con un diagnóstico que apunta a fallos en la configuración, lo cual no es cierto porque está configurada igual que las otras cuentas @gmail.com que uso y que funcionan OK.

clip_image002

Todos los foros y páginas en las que, siguiendo pistas y explicando bien el problema, he buscado solución dicen lo mismo: falla en la configuración, lo cual, repito, no es cierto.

Si bien la falla parece ser de Outlook, ocurre que cuando desde Chrome, el browser adecuado, quiero entrar a cualquier otra cuenta Gmail, lo que primero aparece no es lo que siempre apareció: un menú con todas esas cuentas para que yo escogiera cuál quería abrir. Lo que ahora aparece siempre es esto:

clip_image004

Y para acceder a otra cuenta Gmail tengo que sustituir el user name MADGRI por el de la cuenta que quiero, lo cual no es normal. Cabe entonces sospechar que en Gmail hay algo vinculado a la cuenta madgri@gmail.com en particular, y ese algo es el origen del problema.

Por este motivo he abierto la cuenta madgri3@gmail.com que, desde dentro de Gmail, pude configurar sin problemas en Outlook, cosa que con madgri@gmail.com no he podido hacer. Cuando trato de hacerlo, éste es el resultado:

clip_image005

Agradezco de antemano cualquier sugerencia para solucionar esto. Entretanto usaré la cuenta madgri3@gmail.com en vez de la madgri (sin el 3)

[*MiIT}– El mercado actual de los ‘smartphones’, o teléfonos inteligentes

11-04-2016

Carlos M. Padrón

Según dice el artículo que copio abajo, los fabricantes chinos de teléfonos inteligentes, o smartphones, compiten hoy en el mercado con terminales solventes y económicos.

Y me consta que es así, pues, según conté en el post Las marcas chinas de teléfonos celulares, son varias las compañías chinas que ofrecen smartphones de los que podría decirse que son “de padres desconocidos” que no sólo reúnen las condiciones que en ese post listé, sino que funcionan muy bien.

Y hablo en plural porque, además del Triton Note con Android 4.1.1 que compré hace 3 años y que aún funciona, acabo de estrenar otro “de padres desconocidos” que, al igual que el Triton, uso para, en orden de frecuencia, WhatsApp (programa que tienen mis contactos más allegados), SMS, teléfono, algo de navegación por internet y, muy rara vez, e-mail.

Ese “hijo bastardo” tiene Android 5.1 y muy poco bloatware. Como todo celular que se respete, trajo reloj (con alarma, cronómetro y cuenta regresiva), calendario, cámara, linterna, grabadora de sonido, reproductor de música, browser, mapas, etc. Le instalé WhatsApp, Swiftkey, Chrome, QuickPic, Lock Screen, WPS Office y, como aplicaciones (apps) de seguridad y limpieza, ESET y CCleaner, que son las mismas que desde hace años uso, con buenos resultados, en mis PCs.

Con los 16 GB de memoria que tiene —más una tarjeta SD de 32 GB— podría instalarle muchas más apps, pero, al menos por ahora, no necesito ninguna otra.

Eso sí, además de esas instalaciones y consiguientes adecuaciones, el descubrir dónde están en el Android 5.1 algunas funciones que en el 4.1.1 ya sabía yo donde estaban, aprender a usar las nuevas y configurar el terminal a mi gusto me llevó tres días, pues tal parece que a los diseñadores de los sistemas operativos, tanto de celulares como de PCs, les encanta cambiar de lugar funciones que siempre hacen lo mismo; esa gente tiene una extraña manera de “facilitarle” la vida al usuario.

La única falla que hasta ahora ha presentado ese celular era que, sin motivo aparente —al menos para mí— congelaba todo y avisaba de que estaba “In edit mode” y así permanecía hasta que, también sin motivo aparente, se arrepentía y volvía a la normalidad.

Durante casi dos de esos tres días me di a la tarea de buscar en internet qué diablos era eso de “In edit mode”, qué significaba y cómo se corregía, pero no encontré al respecto ni una sola mención, y mis consultas a personas supuestamente conocedoras de Android no tuvieron éxito.

Sin embargo, sí encontré, en varias y repetidas veces, comentarios favorables al que dicen que es el launcher más ligero, universal y funcional que hay en el mercado. Y sospechando que el motivo de esa falla podría ser el launcher que ese celular trajo, y que en él aparece con el muy “creativo” nombre de Launcher, me saqué de chiquitas, instalé el launcher recomendado y —por lo menos hasta ahora— remedio santo: lo del “In edit mode” no ha vuelto a aparecer, y ese smartphone va como una seda: detecto a la primera varias redes Wi-Fi del vecindario; en cuanto le di la clave de la mía, se conectó de inmediato; y apenas registré en él la cuenta Gmail que para ese fin tengo, en un suspiro descargó todos los contactos.

Navega a doble velocidad que el viejo Triton Note; hace buenas fotos; permite ver documentos en Word, Excel y PDF, e imágenes (fotos y vídeos) en media docena de formatos diferentes; cuenta con contraseña gráfica, de huella digital o de texto; permite acceder a ciertas apps en forma directa, o sea, sin necesidad de desbloqueo; etc.

Como extra, ese launcher ofrece la posibilidad de una interfaz sobria, elegante, funcional e intuitiva. Y, al menos en mi caso, con sólo dos home screens tengo suficiente. El viejo Triton Note tenía cinco.

Además, comoquiera que le doy el uso que ya dije arriba —siendo lo más WhatsApp, con una media de 6 mensajes por día, la mitad con archivos de imágenes o de audio— su batería de 2500mAp baja a 20 o 25% después de dos días de ese uso, y a primera hora de la mañana del tercer día la recargo de nuevo hasta 80%, que es lo que recomiendan los cánones, que también dicen que una vez al mes conviene dejar que se recargue hasta el 100%, y así lo haré.

En mis incursiones por internet encontré varias opiniones que aseguran que el hardware de esos teléfono chinos “de padres desconocidos” es básicamente el mismo que el de los celulares de marca, sólo que a éstos los “empaquetan” con el nombre y logo de tales marcas, y éstas, o las operadoras de telefonía celular (AT&T, T-Mobile, Telefónica, Digitel, etc.), no sólo les instalan su propia interfaz sino que, además, los bloquean y los venden a varias veces el precio que ofrecen los vendedores chinos.

Hoy en día, los más de los smartphones hacen todos casi lo mismo, y como ya no queda mucho que añadirles, parece que el mercado ha colapsado y ahora los anuncian y que modulares, con refrigeración líquida, casi irrompibles, impermeables, que “ven” en la oscuridad, con dos cámaras traseras en vez de sólo una, etc. De ahí que, según el artículo de abajo, Sony haya dado marcha atrás y ahora piense concentrarse en el diseño, la cámara y la batería.

El diseño me importa poco; la cámara del que tengo excede mis pretensiones en fotografía celular, que sólo la veo buena para casos puntuales, pues para fotos importantes como tales, sigo creyendo en las cámaras digitales; y la batería es un problema que cada día mejora, pues ya algunos smartphones chinos traen incorporada una batería de 10000mAp que, según se estima, dura una semana si al smartpone se le da un uso normal, medida ésta bastante subjetiva.

¿Para qué querría yo algo de eso? ¿Qué sentido tiene pagar más de $200 —o máximo $250, mi límite— por un smartphone que, al menos en mi caso, hace lo mismo que uno de $700 o más caro? ¿Presumir de marca, como alguien que hace poco me pidió que le recomendara un teléfono chino que tuviera procesador de ocho núcleos… para mostrárselo a sus amigos? ¡Por favor!

Durante años se ha dicho que valía la pena pagar más por los iPhones porque eran invulnerables a los ciberataques que tanto afectan a los Android. En realidad no había tal invulnerabilidad, sino que los hackers se concentraban, como es lógico, en lo que más abundaba en el mercado; y Android supera con creces al OS de Apple. Pero tal parece que esa opinión sobre invulnerabilidad molestó a los hackers porque ahora ya éstos lograron afectar a los iPhone.

Desde hace unos días ha estado apareciendo en la prensa el artículo “Apple presenta el iPhone SE, su móvil celular nuevo más barato” que, a pesar de que su pantalla es de apenas 4 pulgadas, “sólo” cuesta 489 €.

Pero ocurre que, cada vez más, los smartphones que hoy se usan, y así lo comprobé en USA hace unos días, son phablets, o sea, de pantalla de 5.5 pulgadas o mayores. Y, en cuanto al precio, un smartphone de 489 euros no es para nada barato. 489 euros son, a día de hoy, 557 dólares, y el smartphone que recién he estrenando me costó en total 162 dólares ($137 el terminal con su cable, cargador y manual; una tarjeta SD de 32 GB; una batería de repuesto, de 3000mAh; y, además, manejo, transporte, y seguro).

En fin, que mi nuevo celular va, según dije, como una seda… por ahora, pues como gusto de meterme en ciberproblemas para ejercitar luego las neuronas buscando las soluciones, tal vez mañana ya no funcione, o funcione mal.

~~~

30/03/2016

Sony deja de competir en el mercado de los smartphones y se pasa al Internet de las Cosas (IoT)

Tal es el colapso en el que se encuentra el mercado de los «smartphones» que Sony Mobile ha decidido reorientar su actividad. Aunque en Barcelona presentó su nueva gama Xperia X, la realidad es que la competencia en el negocio celular es «muy dura». Toca mover ficha, y la compañía ya sabe hacia dónde. Es el turno del IoT y su hogar conectado.

«Los teléfonos inteligentes siguen siendo una gran área en nuestro tablero de juego, pero han entrado muchos competidores y el mercado es muy duro. Para cambiar ese escenario necesitamos crear productos radicalmente diferenciadores», explica en una entrevista con Efe el consejero delegado de Sony Mobile, Hiroki Totoki.

No es que Sony abandone la telefonía, pero indagará nuevas formas de interactuar con la tecnología y nuevas maneras «inteligentes y más naturales» de utilizarla para relacionarnos con el entorno. Además, no estará solo: compañías como Apple o Samsung también están presentes en este terreno.

«Nuestro campo de batalla ha cambiado un poco, y queremos ser los pioneros de este tipo de productos (…) Sin duda el hogar es uno de nuestros mercados potenciales», incide Totoki, cuyo objetivo prioritario como consejero delegado es hacer de Sony Mobile una compañía «saneada».

Y es que esta división ha sido una de las ovejas negras del grupo nipón, con pérdidas recurrentes (en el último trimestre registró una caída del 14,7 % en las ventas con respecto al mismo periodo del año anterior) y sin lograr posicionarse como una de las marcas de referencia en el negocio de los teléfonos inteligentes.

Para la consultora IDC, al contrario que Apple, Sony no ha sido capaz de crear un ecosistema fluido entre sus distintos dispositivos (televisores, teléfonos, tabletas) ni ha se ha decidido, como Samsung, a invertir en el punto de venta. Además, ha sufrido la presión de los fabricantes chinos, con terminales solventes y económicos.

«Tenía todo lo necesario para tener éxito en esta industria: una marca fuerte, contenido de música y cine, PlayStation… Pero tardó mucho a la hora de integrarlo todo en un único dispositivo. Y no hay que olvidar que su estrategia como fabricante de celulares es muy reciente porque hasta hace pocos años era parte de una sociedad de riesgo compartido con Ericsson», explica el analista de la consultora IDC Francisco Jerónimo.

En telefonía, el enfoque de Sony Mobile ha sido la gama alta, y aunque ha repetido hasta la saciedad que la cuota de mercado nunca ha sido una obsesión, sí lo es la rentabilidad, y se hace necesario salir de esa tierra de nadie.

Su primer paso para sortear el dilema de reinventarse o morir ha sido dar carpetazo a la serie Xperia Z, su buque insignia hasta la fecha. Sus nuevos teléfonos estarán bajo la denominación Xperia X, tendrán «mayor inteligencia», según Totoki, y se centrarán en tres pilares: el diseño, la cámara y la batería.

Para el analista de IDC, Sony tiene «que mantener el negocio porque el ‘smartphone’ es la puerta de entrada a todo lo demás».

«Si no tienen teléfonos, ¿cómo van a competir con esas otras compañías que están intentando dominar el salón? Porque la verdadera batalla es la de dominar el salón, controlar la experiencia completa. Es lo que Apple y Samsung están tratando de hacer», reflexiona Jerónimo, para quien el viraje de Sony Mobile hacia el IoT tiene mucho sentido.

¿Y cómo se materializa ese IoT en la compañía nipona? El consejero delegado de la división móvil quiere una interacción más natural con la tecnología —a través del oído y de la vista, sin ocupar las manos— y una menor dependencia de la pantalla del teléfono.

Se trata, en definitiva, de aumentar el número de experiencias alrededor del teléfono inteligente sin que sea necesario asirlo todo el tiempo.

Fuente

[*MiIT}– La última mala jugada de mis ciberbrujas: muerte sin causa conocida… hasta ahora

03-12-2015

Carlos M. Padrón

Como sigo al pie de la letra lo de computación PERSONAL, tengo dos desktops:

  1. Una, llamada Michelle (motherboard Gigabyte), que usa Chepina, mi mujer, y
  2. Otra, llamada Obama (motherboard Intel) que uso yo.

El pasado domingo, 15-Nov-2015, trabajando normalmente con Outlook, se congeló Obama. Opté por reiniciar, pero cuando después de la rutina del BIOS debía comenzar Windows, el sistema se congelaba en el logo del Windows 7 Home Premiun (W7-HP) que es el que en Obama instalé en abril/2014.

Con ninguno de los DVDs —ni originales o de recuperación (W7-HP, Vista, XP, EaseUs Todo Backup Emergency Disk, Hiren’s, G-Parted, etc.)— Obama no pasaba del final de la rutina en DOS, y en algunos casos se quejaba de que le faltaba el MBR (Master Boot Record).

Desinstalé el SSD (Solid State Disk), donde sólo tenía el W7-HP, y probé a instalar XP en un HDD (Hard Drive Disk) de los de Obama, pero al arrancar el sistema dese ese XP ocurría lo mismo.

Recurrí entonces a los amigos que son expertos en computación personal, y que, después de contarles lo que había ocurrido y el resultado de lo que yo había intentado, exclamaban, con algunas variantes, algo como: “¡Qué raro, nunca vi eso! Pero es típico de las cosas que sólo a ti te ocurren”. Y creo que tienen razón.

Uno de estos amigos sugirió que el problema podría ser que el MBR del W7-HM se había corrompido. Como yo tenía copia de imagen de ese W7-HP, procedí a formatear el SSD donde éste estaba instalado, a reformatearlo con MBR y reinstalar el W7-HP, pero el problema siguió igual.

Otro amigo sugirió que la causa podría estar en las tarjetas de memoria RAM, y al revisarlas descubrí que, al menos una, estaba floja. Monté correctamente las dos, pero el problema siguió igual.

Y un tercer amigo sugirió algo que me sonó muy lógico: la tarjeta gráfica incorporada en la MB (motherboard) de Obama se había estropeado y no podía con la carga de imágenes que viene después de la rutina en DOS, y de ahí que el sistema se congelara cuando tenía que lidiar con tales imágenes.

Mientras yo esperaba poder conseguir en préstamo una tarjeta gráfica, usando el programa EaseUS Todo Backup reinstalé en el SSD, que estaba vacío porque yo lo había formateado, la última imagen que de mi W7-HM había yo respaldado el sábado 14.

EL EaseUs Todo Backup logró hacer esa recuperación operando en Michelle, y lo primero que anunció el EaseUS, que está hecho en Linux, fue que ya había grabado con éxito el MBR.

Luego instalé en Obama el SSD, arranqué y, para variar, el sistema se congeló en cuanto apareció el logo del W7, pero ocurrió algo que me desveló un misterio —uno al que, por más que yo había buscado en la Red, no logré encontrarle explicación ni solución—: el escaneo que hace el BIOS de Intel antes de pasar a cargar el Windows tardó un suspiro, pero antes tardaba mucho, pues en el primer paso, identificado como 50, se echaba casi un minuto, y luego sí recorría rápido los demás pasos, como el B2, B3, etc. Ahora ni siquiera aparecía el 50.

Como eso se presentó después de que yo instalé por primera vez el SSD, concluyo que el motivo fue que, con todo lo que moví para poner en sitio ese disco, dejé floja una de las dos tarjetas de memoria y, como estaba floja, en el paso 50 el pobre BIOS de Intel se tomaba su tiempo para obviar el entuerto, y supongo que seguiría adelante usando sólo la tarjeta que no estaba floja.

Pasada ya una semana, ante mi impotencia solicité los servicios de un técnico a domicilio que vino el martes 24 a las 10:30. Probó con todos los DVDs de reinstalación y recuperación que ya mencioné arriba, con otros que él trajo, y con dos tarjetas gráficas que uno de los antes citados amigos me había prestado, pero nada: no logró encontrar solución para la falla de Obama, y dedujo que la causa era que su MB Intel se había dañado.

Ante esto opté por pedir al técnico que instaláramos en Michelle un W7-Professional (W7-Pro) en inglés, y una tarjeta de cuatro puertos USB-3 que, como hace un año dio problemas en Obama, había yo desinstalado. Cuando todo esto quedó operativo, el técnico se fue a las 15:45.

A Michelle le instalé entonces el Office 2007, pero, luego de bajar casi 300 updates entre los de Windows y Office, el Word presentaba, al inicio y al cierre, este aviso:

que requería de varios clics para que desapareciera.

Después de reparar, reinstalar, y mucho buscar en la Red, resultó que la solución fue ésta:

1.  Close all the office applications.
2. Click on Start -> Control Panel -> Programs-> Programs and Features.
3.  Click on Microsoft Office 2007 and click on change.
4.  Click on continue for Add/remove features.
5. Expand Office Shared Features.
6.  Click on the little arrow attached to Visual Basic for Application and select Run from my    Computer-> continue.
7.   Click close once the configuration window and try to open word documents.

Pero este problema no se le ha presentado a uno de los amigos ya mencionados que también tiene, al igual que yo, W7-Pro y Office 2007. ¿Por qué a mí sí? ¡Mis ciberbrujas!

No obstante esa solución, el Word y el Outlook quedaron con la falla de que las reglas aparecían en pulgadas aunque por configuración yo había pedido centímetros.

Michelle quedó casi bien el domingo 29-Nov-2015, pero Office siguió fallando: Word no aceptaba centímetros, y perdía, al igual que Outlook, la configuración de teclas para los símbolos — y €.

Además, cuando después de reparar Office aparecía el

Error 1310. Error writing to file C:config.msi1c7966.rbf

Verify access…

Al hacer uso de la opción ‘Retry’, que es una de las tres posibles, aunque un mensaje dijo haber terminado bien la reparación, no era cierto, pues las fallas continuaban.
Al final de uno de esos ‘Retry’, apareció este otro error:

GWXUX.exe

Lo busqué en la Red y encontré esto que, sólo por probar, apliqué:

When such errors occur, usually reinstalling or doing a repair installation is the best choice of action. However, we can try to repair these files and check if it helps. To do so, refer to the steps below:

  1. Open the start page and type «cmd«
  2. Right click on the command prompt and click on «Run as administrator«.
  3. Type the following commands and hit enter after each.
  • DISM.exe /Online /Cleanup-image /Scanhealth
  • DISM.exe /Online /Cleanup-image /Restorehealth

Once you run these commands, restart the system and try the update again.

You may also refer to,

Fix Windows corruption errors by using DISM or System Update Readiness tool https://support.microsoft.com/en-us/kb/947821

¡Y funcionó! pues aunque no veo relación alguna entre las fallas de Word y esa “solución”, instalé de nuevo, tanto en Outlook como en Word, la combinación de teclas para — y para €, y al reiniciar aparecieron en Word los centímetros, y esa combinación de teclas ha seguido operando bien.

Como aconsejan no andar reescribiendo en discos SSD, en atención a eso, en Obama había yo instalado en otra partición diferente a C:/ los programas de uso casual para que el W7-HP no creciera más en el SSD, donde ya ocupaba 83 GB, y me llamó la atención que, una vez instalados en el W7-Pro todos los updates y casi todos los programas que tenía Obama, incluidos los antes mencionados, el total de ocupación era de 53 GB; o sea, 30 GB menos, que no es moco de pavo.

De eso deduzco que, como el W7-HP fue instalado como upgrade sobre el XP que yo tenía desde hacía años, en el W7-HP quedaron muchos archivos del XP, y de ahí que ese W7-HP presentara desde el principio dos fallas que, buscando en la Red y preguntando en foros, encontré que se debían a herencia del XP. Tales fallas eran:

  1. La tecla F8 no llevaba a Safe Mode
  2. Al pedir regreso a un System Restore previo, al final salía el aviso de que la operación no había sido exitosa porque algo, tal vez un programa antivirus, lo había impedido.

Aunque ya había encontrado, y usado, la forma de llegar a Safe Mode y de hacer que el System Restore terminara bien, estas dos fallas me tenían ya harto, pero se han corregido en la instalación desde cero del W7-Pro.

Con todo esto —y toco madera— tanto Michelle como todo lo hasta ahora instalado en ella están operando OK. Pero, eso sí, siempre que yo pueda no volveré a hacer un upgrade de Windows. Por tanto, del upgrade a Windows 10 paso y me aferro al principio que, al menos en informática, aplico al hardware y al software: «Si hace lo que yo quiero y lo hace bien, no lo cambio».

[*MiIT}– Windows 10 vs. Windows 7

31-07-2015

Caros M. Padrón

Como ya he dicho en este blog,

  1. No me gusta ser conejillo de indias, por lo cual, en sistemas operativos Windows he usado el penúltimo. Seguí usando XP cuando apareció Windows 8, y sólo migré a Windows 7 (W7) cuando quedó claro que el 8, y luego el 8.1, no iban bien. Y es más: me las arreglé para que la interfaz del W7 fuera lo más parecida posible a la del XP.
  2. Al menos en computación personal, que es de lo que se ocupa el artículo que copio abajo, me rijo por el principio de que «Si funciona y hace bien lo que quieres hacer, no lo toques».

Por tanto, y a pesar de lo que se dice en tal artículo, seguiré usando W7 sin importar cuántas maravillas se cuenten sobre el Windows 10 (W10). Comenzaré a pensar en él cuando lleve varios meses de rodaje y sean positivos los comentarios de muchos usuarios. Por ahora, y antes del anuncio oficial, ya se descubrió que tiene una incompatibilidad con las NVIDIA.

Para colmo, la versión gratuita que de W10 ofrecen y que, según entiendo, se instala sobre un Windows anterior —W7, W8, W8.1…—, no me sirve porque, después de haber comprado y usado un W7 válido para hacer upgrade en tres computadoras, descubrí que, si bien ese W7 se instala sin problemas, presenta al menos tres fallas que, según foros que consulté, provienen del hecho de haberlo montado sobre el XP. No quiero que esa herencia siga si sobre el W7 instalo el W10.

Las fallas son, al menos hasta ahora, éstas:

  1. Imposibilidad de recuperar por vía normal un System Restore (Restauración del sistema), pues al reiniciar luego, aparece el aviso de que la restauración no pudo hacerse porque, tal vez, un programa antivirus lo impidió. Lo mismo ocurro si antes de iniciar la restauración inhabilito totalmente la suite de seguridad que uso, uno de cuyos componentes es el programa antivirus.
  2. La tecla F8 que sirve para entrar en Safe Mode (Modo seguro), no cumple esa función.
  3. Al exportar a otra PC los settings (configuración) del Outlook, éste no funciona bien en esa otra PC. Por ejemplo, queda «mudo» (no emite sonido alguno cuando entra un mensaje nuevo, cuando se manda a guardar algo como borrador, etc.), y para que funcione el sonido asociado a un archivo PPS llegado como adjunto a un e-mail, hay que cambiar el Sound Scheme (Esquema de sonido) por cada PPS.

~~~

2015-07-29

Llega Windows 10: estas son sus diez novedades principales

Microsoft hizo un gran esfuerzo, sobre todo en materia de seguridad, para renovarle las tripas a su sistema operativo con el lanzamiento de Windows Vista.

Sin embargo, aquella versión era lenta y usaba demasiados recursos, de modo que se ganó una merecida mala fama que la compañía de Redmond logró revertir con Windows 7.

Aquella actualización no fue tan difícil ni tan revolucionaria, pero solucionó los principales fallos de su predecesor e incorporó algunas mejoras a la interfaz de usuario que la convirtieron casi de inmediato en el aplaudido y verdadero sucesor del veterano Windows XP.

Con Windows 8, Microsoft volvió a la senda revolucionaria tratando de rehacer por completo la interfaz de usuario y comenzando a recorrer el camino que debía llevarle a disponer de un sólo sistema operativo para todos los dispositivos, desde móviles hasta computadores de escritorio.

Pero en sus versiones para computadores intentó imponer con demasiada energía una interfaz creada para pantallas táctiles, y la mayoría de los usuarios prefirieron quedarse con sus escritorio de toda la vida.

Pero la empresa de Satya Nadella ha vuelto a repetir la jugada con un sistema operativo que mejora en todos los aspectos al anterior y que supone el sucesor que merecía Windows 7.

Éstas son las diez principales novedades de Windows 10:

1. Menú de inicio.

Al pulsar en el botón de inicio, recuperado en Windows 8.1, aparecerá de nuevo un menú y no una pantalla, que además mezcla los accesos directos tradicionales de Windows a la aplicaciones más usadas a la izquierda y las «baldosas» aplicaciones de Windows 8 a la derecha.

2. Cortana

El asistente personal de Microsoft, competencia de Siri y Google Now, llega incorporado en forma de caja de búsqueda en la barra de tareas. Se puede preguntarle de viva voz o escribiendo, y funciona lo suficientemente bien como para que se olvide el menú de inicio para la mayor parte de los usos.

3. Notificaciones

Ya tardaba Windows en importar de los sistemas operativos para móviles esta característica, ya incorporada además a Mac OS X, que además complementa con varios accesos directos bastante útiles para la configuración del computador.

4. Apps en ventana

Las aplicaciones de la Tienda de Windows no tendrán que ejecutarse a pantalla completa como hasta ahora, sino que se podrán usar en ventana. Esto permitirá a muchos emplear las nuevas apps de Windows para tareas tan triviales como escuchar música o ver un vídeo, apps de las que antes muchos huían al verse obligados a ejecutarlas a pantalla completa.

Las nuevas aplicaciones, llamadas «universales», funcionarán también en celular y tableta adaptando su interfaz.

5. Continuum

Si está usando un celular, una tableta o un híbrido con el teclado desconectado, la interfaz que se tendrá será prácticamente idéntica a la de Windows 8, que estaba pensada para estos dispositivos. Pero si se le conecta un teclado, se transformará automáticamente al escritorio de Windows de toda la vida.

6. Mejores aplicaciones

Microsoft ha querido dar ejemplo de cómo deben construirse las nuevas aplicaciones universales con las incluidas por defecto en Windows 10, de las que cabe destacar las de Fotos, Correo y Calendario.

Son rápidas y cómodas, tanto para usar con ratón como con los dedos. También incorpora la aplicación Xbox, que permitirá disfrutar de los juegos de Xbox One desde Windows.

7. Microsoft Edge

Aunque Internet Explorer seguirá estando presente por motivos de compatibilidad, será un jubilado con fecha de caducidad: ha sido sustituido por un nuevo navegador más rápido y compatible con los estándares web y que incluye entre sus novedades un modo lectura que elimina todo lo accesorio de la página que se esté leyendo, para poder concentrarse en leer sin distracciones.

8. Escritorios múltiples

Casi todos los sistemas operativos para computadores contaban con esta posibilidad, pero Windows incorpora por primera vez esta forma de organizar nuestro trabajo. Está dentro de Task View, que es la nueva forma de ver todas las ventanas que se tengan abiertas pulsando el botón de Windows+Tab o el icono situado a la derecha de la caja de búsqueda en la barra de tareas.

Desde ahí se podrán crear nuevos escritorios virtuales y arrastrar entre ellos programas ya abiertos.

9. Gestos del trackpad copiados de Mac

Donde esté un buen ratón, que se quite todo lo demás. Sin embargo, la prueba el buen uso que hace Mac OS X de los gestos con varios dedos, convenció a muchos de que, en algunos casos, podría llegar a ser más productivo un trackpad que un ratón.

Windows 10 copia miserablemente los gestos del Mac, algo que agradecerán los usuarios con portátiles.

10. Configuración en un solo sitio

Con Windows 8, Microsoft empezó a sustituir el panel de control de toda la vida por una nueva aplicación de Configuración más parecida a lo que podríamos encontrar en un celular.

Sin embargo, esta nueva aplicación carecía de la inmensa mayoría de las opciones que se podían encontrar en el panel de control, de modo que uno acaba usando ambas.

Con Windows 10, la aplicación de Configuración tiene ya incorporado prácticamente todo lo configurable, de modo que, salvo opciones realmente raras, se puede olvidar de verdad el panel de control.

Con la llegada de un sistema operativo nuevo, además de mejoras y novedades también hay cosas que dejan de ser como antes. Así, por ejemplo, no se podrá reproducir DVDs con las aplicaciones incluidas en Windows, de modo que habrá que recurrir a programas como VLC o PowerDVD.

Desaparece también la posibilidad de ejecutar aplicaciones como si estuviera en Windows XP, algo que no es de extrañar porque siempre se pensó como un mecanismo de transición mientras se actualizaban las aplicaciones. Y haabrá que decir adiós a Windows Media Center, al que habrá que sustituir por aplicaciones como Kodi.

OneDrive deja de ser una aplicación independiente para estar integrada en el sistema operativo, pero con un paso atrás importante: desaparece la posibilidad de tener los archivos en OneDrive, y en el computador sólo el llamado placeholder, un archivo con el mismo nombre y que casi no ocupa espacio, descargando el archivo completo sólo cuando sea necesario.

Una mala noticia para quien ande justo de espacio, y buena para muchos usuarios que encontraban confuso el sistema.

En suma, después de varios meses utilizando las versiones preliminares que Microsoft ha puesto a disposición de sus betatesters, hay que concluir que se está ante un Windows mucho mejor que sus predecesores, que incluye suficientes mejoras como para justificar que una actualización que, además, será gratuita, y que llegará a partir de este 29 de julio a través de Windows Update.

Fuente

[*MiIT}– Google y sus últimos cambios

30-07-2015

Carlos M. Padrón

Como usuario conservador que soy, me siento algo aliviado con lo que dice el artículo que copio abajo, pues no comparto mucho de lo que Google ha hecho últimamente.

Por ejemplo, GoogleTalk era, de lejos, el mejor parido y más fácil de usar de los programas de chateo con voz y mensajes, pero lo eliminaron en favor de Hangouts que me resulta tan mamotreto como Skype pero, además, más difícil de usar, y un estorbo porque quiere aparecer en todas las cuentas de Gmail que uno tenga. Su icono es un auténtico incordio.

En cuanto a Google+, siendo como es una red social, no me interesa. Sin embargo, caí en él no sé cómo, y de inmediato comencé a recibir «peticiones de amistad». Por fin ayer separé un tiempo para ocuparme de eso y logré darme de baja en ese para mí otro incordio.

Ye el mayor de los incordios ha sido para mí la nueva política de Google contra el spam, pues no sólo han limitado mucho el número de direcciones e-mail que en el campo BCC o CCO (con copia oculta) ponga uno en un mensaje, y lo devuelven sin entregarlo a los destinarios, sino que también parecen haber puesto en lista negra la IP dese la cual esos mensajes han sido enviados.

Esto me ha puesto en aprietos para enviar el Resumen Padronel a quienes no han querido darse de alta en FeedBlitz, sino que prefieren recibirlo enviado por mí. Y aunque he avanzado algo en la búsqueda de recursos para obviar este obstáculo, aún no lo he logrado del todo.~

~~~

29/07/2015

Google desvincula Google Plus de YouTube

Fue la herramienta con la que, tarde, (en 2011) pretendió subirse al carro de las redes sociales (no hay que olvidar que Facebook nació en 2004).

En 2013 llegó a ser la segunda en número de usuarios; sin embargo, debido a su inactividad, parecía más bien una ciudad abandonada. La razón era muy simple: para usar cualquiera de los servicios de la compañía, tenías que tener perfil en Google+. Por esta razón, el gigante de internet ha decidido trazar una nueva estrategia: desvincular Google+ del resto de sus servicios. El nuevo turno es para su canal de vídeos, YouTube.

Técnicamente, se podría decir que YouTube desaparece. Pero para la compañía sólo se trata de «cambios importantes» en los que van a ir trabajando a lo largo de los próximos meses. Google+ se desvincula al fin de Youtube, así que ya no hará falta tener cuenta en la red social para poder subir vídeos.

De hecho, ésta fue una de las medidas que más molestaron a los usuarios. Incluso a Jawed Karim, uno de los cofundadores de la plataforma, criticó la decisión por carecer de sentido. «¿Por qué diablos necesito una cuenta en Google+ para comentar en un vídeo?», dijo en 2013.

«Hemos escuchado las opiniones de los usuarios que nos han asegurado que no tiene sentido crearse un perfil en Google+ para utilizar otros productos de Google», ha asegurado Bradley Horowitz, vicepresidente de la compañía, este lunes en un comunicado. —«Así que en los próximos meses —continúa—, una cuenta de Google será todo lo que necesites para compartir contenidos, comunicarte con otros contactos o crear un canal de YouTube».

Google asegura también que, para las personas que ya cuenten con perfil social pero no planean usar Google+, van «a ofrecer mejores opciones para la gestión y eliminación de los perfiles públicos».

Google parece que empieza a entender que los usuarios quieren usar con independencia la multitud de servicios que ofrecen. Para usar Hangouts, antiguo GoogleTalk, tampoco se necesita ya tener un perfil en Google+, al igual que sucede con Fotos; basta únicamente con una cuenta de Gmail.

Además, cualquier usuario que ahora quiera crearse una cuenta de correo tampoco es ya obligado a crearse el perfil en la red social.

Por tanto, habrá que esperar a ver cuál es el futuro que le espera a Google+. Ahora mismo, sí es necesario para poder hacer comentarios, por ejemplo, en la Google Play y en su reciente lanzamiento.

Fuente

[*MiIT}– De la preservación de fotos y documentos importantes

30-01-15

Carlos M. Padrón

El artículo que copio abajo alerta sobre la posibilidad de perder fotos por falla —debido al tiempo de trabajo, que no es lo mismo que la edad— del disco duro donde se hayan guardado.

Ya he dicho que no me gusta la nube, en parte porque, en países donde internet va muy lento o falla del todo, se dificulta o imposibilita el acceso a ella, y en parte porque lo que yo ponga allí deja de ser mío, pues legalmente pertenece al propietario de esa nube.

Aparte esto, hay buenas prácticas para retrasar el momento en que podrían perderse las fotos u otros documentos importantes.

1. Apagar la PC en la noche. Hay quienes jamás la apagan, con lo cual los discos trabajan algo más de tiempo.

2. Respaldar en disco externo el contenido —o al menos lo valioso— que haya en los internos, y activar el externo sólo cuando se vaya a hacer el respaldo; de esta forma, su vida será más larga. Es algo que hago cada semana, y aunque las más de las personas que conozco no lo hacen nunca, ni siquiera con sus celulares, sí ponen el grito en el cielo cuando pierden algo por falla del disco donde lo tenían, o por una infección del sistema operativo (OS), en cuyo disco también tenían, imprudentemente, datos valiosos. En ese caso, como no respaldaron el OS ni los tales datos valiosos, sólo les queda resignarse a la pérdida de esos datos, formatear el disco y reinstalar el OS, con la consiguiente y muy larga tarea de volver a instalar los programas que tenían,… si es que conservaron su ejecutable —generalmente un .EXE— o saben dónde conseguirlo y pueden hacerlo.

~~~

27 ENE 2015

Ramón Peco

¿Qué será de nuestras fotos digitales dentro de 10 años?

El fotógrafo estadounidense Levi Bettweiser reveló recientemente 31 carretes de fotografías de la Segunda Guerra Mundial que adquirió en una subasta.

A pesar de las décadas transcurridas, las imágenes permanecían en bastante buen estado. No son las únicas fotos que Bettweiser ha rescatado del olvido, pues en su proyecto Rescued Film difunde en internet fotos de carretes que le han sido donados.

Las extraordinarias imágenes de la fotógrafa anónima Vivian Maier, o las que guardaba la maleta mexicana de Robert Capa, han llegado hasta nosotros gracias a la perdurabilidad de la plata de los negativos. ¿Lograrán nuestras imágenes digitales sobrevivir dentro de 10, 20 o 50 años?

Al margen de si las guardamos en un disco duro o en la nube, no está nada claro que superen el paso del tiempo de la misma forma que las registradas en un negativo fotográfico.

En la exposición Data Recovery del fotógrafo Diego Collado, que estos días puede verse en la Escuela Blank Paper de Madrid, es posible comprobar que las fotos digitales pueden deteriorarse. Las imágenes que se pueden ver en la muestra provienen de tarjetas de memoria de segunda mano compradas por Collado.

Aunque sus propietarios originales pensaron que las imágenes que almacenaban en ellas desaparecieron al borrarlas, Collado las trajo de vuelta usando el programa que da título a la exposición.

Aunque en principio buscaba sólo recuperar fotos intactas por correo electrónico, Collado cuenta que “sucedió lo inesperado: una de las imágenes se recuperó parcialmente y el vacío resultante aparentaba ser rellenado con arbitrariedad. Éste es el momento que me lleva al orgasmo mental. Reconocer que el relleno no era arbitrario, sino subjetivo (…). Podemos comenzar a pedirle a los computadores y programas, respuestas que anteriormente habíamos considerado ser cuestión de opinión. Por ejemplo, qué color le va mejor al amarillo”.

La elección de las imágenes que realizó Collado no fue aleatoria, pues escogió aquéllas que “contenían un vacío en la porción crucial de la imagen, que permitiría, de otro modo, comprender exactamente qué ocurría en ellas, un vacío que permite a cada lector malinterpretar cada relato”, explica.

Pero ese vacío del que habla este creador puede llegar a ser total, pues muchas de las numerosas fotos y vídeos que hoy hacemos corren el riesgo de desintegrarse por completo.

¿Es segura la nube?

Hace unos meses, el servicio de copias de seguridad en la nube Backblaze intentaba responder a una pregunta que tiene difícil respuesta: ¿cuál es la vida útil de un disco duro?

A partir de datos estadísticos y a las conclusiones de diversos estudios, entre ellos uno que realizó Google en 2007, se llegó a la conclusión de que la vida media de estos dispositivos de almacenamiento es de seis años. Eso no quiere decir que no haya discos que sigan funcionando durante mucho más tiempo, aunque en ningún caso su vida útil será comparable a la de soportes analógicos, como un disco de vinilo o una película fotográfica.

La mejor estrategia es realizar copias en dispositivos físicos y en la nube

Tampoco la nube parece un lugar completamente seguro para almacenar nuestros datos a largo plazo. El mayor cataclismo que en almacenamiento de datos en internet se ha dado hasta la fecha fue el del cierre de Megaupload. A pesar de que sus servidores se usaban en gran medida para compartir películas y series, muchos también los usaban para almacenar sus fotos en el servicio especializado Megapix. Todo ese material se perdió cuando el FBI clausuró el servicio.

Otros casos menores, pero también significativos, fueron los del cierre por causas económicas del espacio de almacenamiento Ubuntu One, o el del servicio de publicación de imágenes Fotopedia.

Pero la desaparición de un servicio de esa clase no es el único riesgo para los que lo usan. Aunque no es frecuente, en ocasiones también se producen fallos y se pierden datos. Flickr, por ejemplo, eliminó por error la cuenta de un usuario con 4.000 fotos. Algo similar sucedió con un número indeterminado de cuentas de Dropbox. Otro riesgo de la nube es que alguien pueda acceder a nuestra información sin nuestro consentimiento, como sucedió en el celebgate.

A pesar de todo, cada vez se confía más en internet como soporte para almacenar recuerdos. Tanto es así que se acaba de anunciar el lanzamiento de Narrative Clip 2, una pequeña cámara que se lleva adherida a la ropa y que capta una foto cada 30 segundos. Las imágenes tomadas con ella se pueden almacenar en un servicio online creado específicamente para este dispositivo.

La mejor estrategia para que nuestras imágenes digitales no terminen desapareciendo con el paso del tiempo es realizar copias de ellas en dispositivos físicos y en la nube. Incluso no está de más crear nuestra propia nube personal. Diversas marcas de dispositivos de almacenamiento ofrecen pequeños servidores domésticos para que podamos guardar y consultar, desde un computador, celular o tableta, nuestra información.

Entre los más interesantes están los de la empresa Synology, sobre todo por su software DiskStation Manager. Usándolo con modelos de esta marca destinados a un uso personal, como DiskStation DS115j, podemos prescindir, o al menos no depender completamente, de servicios online de almacenamiento privado.

Pero, además de almacenarlas digitalmente, lo que también resulta bastante seguro es obtener en papel copias de las fotos, al menos de las más importantes, y pegarlas en uno de esos álbumes que pasan de generación en generación.

A día de hoy ese sigue siendo el método más seguro para que una foto no se extravíe.

Fuente

[*MiIT}– Sorpresa con el ‘dual boot’

10-01-15

Carlos M. Padrón

Soy de los que se toma a pecho lo de computación PERSONAL.

Por eso tengo mi propio equipo —una desktop, por supuesto, con sus periféricos—, y a Chepina, mi mujer, le tengo para su uso una desktop con sus periféricos.

Personal es PERSONAL, y no entiendo que una cuenta de correo sea compartida, o «familiar», y que cuando, por ejemplo, veo conectado a GoogleTalk o a Skype a alguien conocido y le envío un mensaje, resulta que quien responde no es ese alguien sino otra persona. Esto es hasta una falta de respeto.

Originalmente, la desktop de Chepina, que era del año 2004 (digo ‘era’ porque la regalé), no sólo tenía el cajón algo averiado, sino que usaba Windows XP. Como éste se puso de una lentitud insoportable y quedó sin servicio de Microsoft (MS), opté por comprar hace varios meses los componentes para armar una nueva desktop (con lo cual aprendí cómo hacerlo), e instalar en ella un Windows 7 (W7).

Antes ya había sabido yo que la impresora HP-1000 LaserJet, parte del viejo equipo pero que ha salido muy buena, no era compatible con el W7, pero, según Mr. Google, se la podía hacer trabajar con un cierto programita, y, según MS, también se la podía hacer trabajar instalando en W7 la emulación de XP.

Sin embargo, llegado el momento, ni funcionó el tal programita ni funcionó la emulación; según he sabido hace poco, esto es lo normal.

Ya que Windows Vista (Vista) sí puede entenderse con la HP-1000, para seguir apegado a lo de PERSONAL instalé Vista en esa misma PC que así quedó operando bajo lo que se conoce como dual boot, que no es más que la posibilidad de arrancar por uno cualquiera de dos sistemas operativos —en este caso W7 o Vista—, escogiendo de un menú que el sistema presenta al comienzo.

Ya en mi desktop había usado yo dual boot cuando, todavía instalado el XP, instalé W7 en otra partición. Y cuando logré dejar W7 lo más parecido en interfaz al XP, y acostumbrarme a sus bondades, eliminé el XP, y usé para datos el espacio en disco que él había ocupado. Esa eliminación no ocasionó ningún problema.

Comoquiera que en casi seis meses el Vista de la PC de Chepina ha funcionado bien, y que, al contrario que yo, que uso mi desktop varias horas cada día, ella usa la suya sólo de vez en cuando y por poco tiempo, opté por hacer lo mismo que yo había hecho en mi desktop: eliminar la partición del W7, que no se usaba, y dejar sólo el Vista.

Mi primera sorpresa fue que la partición del W7 no se dejaba formatear ni eliminar. Intenté borrar su contenido, pero cada intento terminaba con un mensaje de que yo no tenía autorización para hacer eso.

Recurrí a Mr. Google y encontré mil quejas acerca de esa maña del Vista que pide autorización para todo, y si bien algunas autorizaciones son fáciles de conseguir, otras, como la que yo necesitaba, no.

Ante esto opté por recurrir al Hiren’s —un programa que, desde un CD permite, entre otras muchas cosas, cargar un mini-XP—, y con él formateé la partición del W7. Pero al reiniciar luego la PC no apareció la pantalla del Vista (la más linda de todas las de los Windows que he usado), sino una de fondo negro diciendo que le faltaban elementos para poder llegar a donde yo quería, o sea, para arrancar por Vista.

De nuevo al Sr. Google y, después de bastante buscar, di con un artículo de MS en el que se dice que al usar dual boot hay que tener en cuenta que el comando de esa sociedad lo tiene el Windows más reciente, y que, por tanto, si éste se elimina, el otro «socio» no funciona. Como el W7 es más reciente que el Vista, al eliminar W7 descabecé el Vista.

En el caso del dual boot de mi PC no hubo problema porque la sociedad era entre XP (viejo) y W7 (nuevo), y yo eliminé el XP.

Entonces entendí por qué al usar el «EaseUS Todo Backup» para, antes de meterme en todo esto (más vale prevenir que lamentar), hacer un respaldo de la imagen del Vista, el programa me había dicho que sí haría el respaldo pero no sólo del Vista sino de Vista+W7.

Frustrado, pero contento de haber aprendido algo más, incluido lo de la experiencia en la transferencia a SSD del W7 de mi PC, procedí a recuperar esa imagen, y el dual boot arrancó aparentemente sin problemas, pero a poco de comenzar a usar el Vista caí en cuenta de que no andaba bien, y cuando reinicié la PC, en vez del menú para escoger entre Vista o W7, apareció una ominosa pantalla de fondo negro y con quejas que me resultaron ininteligibles.

Apliqué todos los remedios usados en la experiencia antes mencionada, pero ninguno funcionó, así que opté por «caída y mesa limpia»: usando el Gparted, de Ubuntu, formateé el disco e instalé el Vista.

Desde el comienzo de este proceso hasta que dejé el Vista casi igual a como antes estaba, fueron 12 horas de trabajo. La lección aprendida esta vez es que, por lo visto, las bigamias no terminan bien ni siquiera en el cibermundo; así que, mientras yo pueda, no más dual boot.