Archivos para junio, 2014

El aprendizaje automático (que los ordenadores aprendan nuevas habilidades mediante la búsqueda de patrones en los datos de entrenamiento) es la base de la mayoría de los avances recientes en materia de inteligencia artificial, desde los sistemas de reconocimiento de voz hasta los coches que se auto-estacionan. Es también la técnica que los robots autónomos suelen utilizar para construir modelos de sus entornos.

876919

Ese tipo de construcción de modelos se complica, sin embargo, en los casos en que grupos de robots trabajan en equipo: pueden haber reunido información que, colectivamente, genere un buen modelo… pero que individualmente resulte inútil. Pero, ¿cómo pueden construir los robots un modelo colectivo en aquellos casos en que las restricciones computacionales/energéticas/de comunicación impiden que pongan en común sus datos? Unos investigadores del Laboratorio de Sistemas de Información y Decisión del MIT tratarán de responder a esa pregunta el mes que viene, en el marco de la conferencia “La Incertidumbre en la Inteligencia Artificial”.

Presentarán un algoritmo en el cual agentes distribuidos (como, por ejemplo, unos robots que exploran un edificio) pueden recoger datos y analizarlos de forma independiente. A continuación, una par de dichos agentes (como dos robots que se cruzan en un pasillo) puede intercambiar los resultados de sus análisis. En experimentos con varios conjuntos de datos diferentes, este ‘algoritmo distribuido’ siempre superaba al sistema estándar basado en agregar los datos en un único punto: “Si las porciones más pequeñas de información se procesan primero por parte de los robots individuales, y sólo posteriormente se combinan, se reducen las probabilidades de que el modelo final se atasque en una mala solución”, aclara Trevor Campbell, estudiante de posgrado de aeronáutica y astronáutica del MIT y escritor (junto a su tutor Jonathan How) del informe en el que se presenta el algoritmo.

Campbell explica que la investigación estuvo motivada por su interés sobre la colaboración entre robots, pero que también puede tener implicaciones relevantes en materia de Big Data, al permitir a los servidores distribuidos combinar los resultados de sus análisis de datos sin necesidad de agregar éstos en una ubicación central: “Este procedimiento es completamente sólido en casi cualquier red que podamos imaginar. Es un gran medida un algoritmo de aprendizaje flexible para redes descentralizadas”.

También se ha manifestado al respecto el vicerrector de investigación de la Universidad de Duke: “El método variacional distribuido que propone este trabajo es computacionalmente eficiente y práctico. […]. La computación distribuida jugará un papel crítico en el despliegue de múltiples vehículos terrestres y aéreos autónomos“.

Fuente: ticbeat.com

El 2014 se convierte definitivamente en el año de los wearables después de las referencias repetidas a distintos lanzamientos de relojes inteligentes por parte de las grandes compañías tecnológicas. En el evento Google I/O ha habido importantes anuncios respecto a Android Wear, la plataforma Android para wearables del gigante de Internet, y sobre los nuevos dispositivos que llegarán al mercado con este software de mano de Motorola, Samsung y LG (de hecho, los relojes inteligentes de estas dos últimas compañías, Gear Live y G Watch, respectivamente, ya pueden reservarse a través de Google Play). A todo esto, Apple está decidido a juntarse a la competición de los wearables con su iWatch previsto a salir en octubre y que se supone que integrará el sistema operativo iOS8, una pantalla OLED y sensores biométricos.

Los fabricantes de hardware avisan grandes cambios que introducirán a los usuarios aún más en el mundo interconectado del Internet de las cosas, pero para que Apple, Google, LG o Samsung, entre muchos otros nombres, puedan presentar estos avances se han tenido que esperar años de intentos y fallos repetidos hasta dar con el modelo capaz de llevar la tecnología al siguiente nivel. A continuación haremos una corta incursión, que será la primera parte, de la historia de los relojes que han hecho evolucionar el smartwatch actual.

1.- Seiko UC-2000 o “Wrist Information System”

seikoUC2000

Seiko ha destacado como el primer fabricante que ha querido experimentar con las características de los relojes digitales aprovechando la tecnología de los primeros ordenadores. El modelo UC-2000, lanzado en 1984, además de decir la hora y realizar operaciones de calculadora podía almacenar hasta 2Kb de datos y se comunicaba con un teclado mediante pulsos magnéticos. Ha sido el primer reloj que ha introducido el concepto de conectividad con su capacidad de acoplarse a módulos adicionales. El mismo año Seiko lanza elRC-1000 que se podía conectar a los ordenadores a través de un cable.

2.- Seiko Receptor

seikoreceptor

El modelo Receptor de 1990 ha representado el paso hacia la nueva generación de relojes digitales. Era por la primera vez cuando se fabricaba un reloj wireless que venía acompañado de un un mini dispositivo receptor de FM para recibir y descodificar mensajes. La caja del reloj era de plástico y la pantalla LCD mostraba el tiempo, fecha y los mensajes recibidos. El siguiente modelo, ocho años más tarde, fue Seiko Ruputercomercializado con el nombre de OnHand Pc. El reloj tenía un procesador de 16 bits, 128 KB de RAM y una pantalla LCD monocromática de 102×64 píxeles.

3.- WatchPad

watchpad
Los modelos anteriores demostraban la versatilidad tecnológica del reloj inteligente y confiando que se podría llegar a más, IBM y Citizendesarrollaron en 2000 un modelo que integraba el sistema operativo Linux 2.4. El reloj tenía un procesador ARM de 32bits, 8 MB de RAM y 16 MB de memoria flash y entre sus características más interesantes conectividad Bluetooth y un escáner de huellas dactilares. Sus limitaciones de tamaño de pantalla y rendimiento causaron su posterior declive.

4.- Microsoft SPOT (Smart Personal Object Technology)

MicrosoftSpot
La tecnología SPOT que se lanzó en 2004 formaba parte de la iniciativa de Microsoft de conectar los dispositivos mediante las señales de transmisión de radio FM de su red MSN Direct que funcionaba para las más importantes ciudades de Canadá y EEUU. Fabricantes como Fossil y Suuntoseguidos por Tissot y Swatch crearon modelos de relojes inteligentes usando esta tecnología que entre otras funciones incluían previsiones meteorológicas y actualización de datos de tráfico. Los relojes que usaban SPOT se han fabricado hasta el 2008 y cuatro años más tarde Microsoft se veía obligado a abandonar el proyecto por varias limitaciones del producto.

 

5.- Samsung S9110

SamsungS9110

Después de su modelo SPH WP10 de 1999, el primer reloj de Samsung destinado a realizar llamadas telefónicas, la tecnología evolucionó y diez años más tarde, en 2009, estaba preparado para sacar un modelo mejorado, elSamsung S9110. El dispositivo enviaba emails, tenía una batería que duraba hasta cuatro horas de conversaciones, una pantalla táctil color de 176×220 píxeles, Bluetooth y un reproductor MP3. Su principal ventaja, 2 mm más delgado que el modelo de su principal competidor LG GD910, le situaba como el reloj de pulsera más delgado del mercado en ese momento, pero el mérito de su elegante diseño no fue suficiente para encabezar la lista de wearablesfavoritos y cuatro años después Samsung se centró en el desarrollo de otros dispositivos más inteligentes que cubriremos en un próximo artículo.

Fuente: ticbeat.com

FILIBUSTERISMO

Publicado: 26 junio, 2014 en Comuniación

Pensaba no hacerlo, pero lo voy a hacer. No quiero que esta columna, que se ha ocupado de cosas tan diversas, no recoja al menos un comentario referido a la histórica abdicación del Rey Juan Carlos. Y no pensaba hacerlo porque sabía del bombardeo informativo que sobre este tema iba a llevarse a cabo y de la calidad de las plumas que de él se han ocupado, en muchos de los casos mucho más formadas que la mía a la hora de hacer un juicio histórico o político-social de los acontecimientos que se han producido.

el fili

Nací en una dictadura y a los 27 años descubrí, con nuestra Constitución, la democracia. Una democracia que desde sus inicios pactó, como forma de Estado, una monarquía parlamentaria, que otorgaba todo el poder de decisión al pueblo, a través de sus representantes en las distintas instituciones, dejando para la Corona un papel de representación del Estado con muy limitados poderes.

Nunca me he considerado monárquico, pero tampoco nunca jamás me consideré republicano. Sin embargo, a medida que avanzaba nuestra democracia y se iba produciendo la estabilización de la misma, fui asumiendo como un hecho natural, respetado por nuestros principales partidos, la existencia al frente del Estado de un rey que cumplía con sus funciones mientras nuestras fuerzas políticas se dedicaban a gobernar –con mayor o menor acierto–.

Por ello que cuando tras 36 años de monarquía parlamentaria vuelvo la cabeza hacia atrás y valoro lo realizado y la paz social conseguida, gracias, fundamentalmente, al papel de nuestros partidos y de la sociedad en general, no encuentro motivos de fondo que justifiquen el debate oportunista ahora abierto sobre monarquía-república, estando cada vez más convencido de que se trata de una simple estrategia estética que busca, con ella, reforzar el protagonismo de un nuevo modelo de izquierda en España, ya desarrollado en otras latitudes y emparentado muy directamente con las formas autoritarias de gobierno.

Quienes pretenden reducir la decisión de mantener la monarquía o caer en manos de la república a un simple referéndum, se olvidan o, mejor dicho, no quieren ver, que la soberanía del pueblo reside en sus instituciones y, hoy por hoy, son ellas las poseedoras de un mandato constitucional, refrendado en noviembre del 2011, que establece nuestro sistema de Estado como actualmente lo conocemos.

Se ha argumentado que el mapa político español ha cambiado radicalmente con las últimas elecciones europeas. Argumento absolutamente falaz. Ni el marco era el mismo, ni la percepción del valor de Europa o España es la misma por parte del elector, ni tan siquiera la ley electoral se aplica de igual forma, motivo por el que gran parte de esta nueva izquierda carecería de relevancia parlamentaria como para tan siquiera afrontar con cierta lógica la propuesta que ahora hace en las calles.

Es por ello que frente a esta corriente rupturista se debe mantener la tranquilidad, no abriendo los debates estériles que unos pocos, muy pocos, pretenden y alimentan, manteniéndonos en la senda constitucional que tantos beneficios nos ha dado.

Saben que con el actual reparto de fuerzas políticas existente en España es imposible que prospere un cambio de forma de Estado, por lo que intentan, con la agitación social, que se produzcan las condiciones para el enfrentamiento a la búsqueda de imponer el que dicen defender.

Se ha magnificado y se sigue haciendo –Luis María Ansón caía el otro día en ello– la figura de quien hace de la utopía la mejor vía para manipular la voluntad del pueblo, en unos momentos en los que el propio pueblo sufre las condiciones de la recesión económica y muestra una mayor debilidad ante el filibusterismo de algunos.

Fuente: Enrique Bellido

LAS GOOGLE GLASS YA EN LONDRES

Publicado: 25 junio, 2014 en Comuniación

“Probablemente, la pregunta que más hemos escuchado en este tiempo es cuándo estarían las Glass disponibles fuera de Estados Unidos”, señala el equipo de Google Glass en una entrada en su perfil de la red social Google+, a través de la cual han anunciado que, a partir de este lunes, extienden su programa beta de exploradores a Gran Bretaña, un país al que ven como “un centro mundial de innovación”.

Los británicos que decidan ser “Explorers” de la versión beta de Google Glass podrán hacerlo por 1.000 libras (alrededor de 1.250 euros), que es el precio de salida del dispositivo que la compañía ha puesto para sus gafas allí.

Lo cierto es que, cuando desde España se pulsa el botón para comprar online desde la web www.google.co.uk/glass/start/, se accede a una página en la que se nos dice que las Glass no están disponibles aún en nuestro país, pero en el que se ofrece información muy detallada –como los requisitos técnicos o una página para comprobar el “estado del pedido”- acerca del dispositivo en perfecto español, lo que lleva a pensar en la probabilidad de un próximo lanzamiento en otros mercados europeos.

Como primer gesto promocional, Google ha publicado un vídeo en el que muestran cómo podría ser un día en la vida de Londres a través de las Google Glass: utilizar Maps mientras se recorre la ciudad en bici, encargar comida india a través de los comandos de voz, traducir el menú de un restaurante, tomar una foto del atardecer sobre el Támesis o consultar la lista de la compra con un solo movimiento de ojo.

El gigante de Internet ha anunciado, además, que realizará una demostración pública de lo que sus gafas inteligentes pueden hacer en el evento London Demo Days, que tendrá lugar los próximos 27 y 28 de junio.

En Estados Unidos ya se venden de manera indefinida

Tras funcionar durante varios meses con un programa de “Explorers” o desarrolladores al que se accedía, fundamentalmente, a través de contactos o de instituciones de investigación o educación, Google decidió probar suerte el pasado 15 de abril con una primera venta pública en Estados Unidos que se prolongó durante 24 horas y en la que se agotaron algunos modelos de Glass, como las de montura blanca.

Un mes más tarde decidió lanzar otra venta, esta vez indefinida, pensada para durar hasta que se agoten existencias. En aquel momento, el equipo de Google ya se refirió a la demanda, planteada por muchos usuarios, de que las Glass estuvieran disponibles fuera de Estados Unidos, y confesó que “todavía no se sentían preparados para ello”. Parece que por fin lo están.

Fuente: ticbeat.com

BANCA ONLINE: RENOVARSE O MORIR

Publicado: 24 junio, 2014 en Comuniación

Ni la banca online ni los avances de las tecnológicas en el sector financiero son novedad; sin embargo, los riesgos para los bancos tradicionales que no se adapten a los cambios son ahora mucho mayores que nunca.

shopping_online_buy_Internet_paypal_money_2

Así lo afirman varios informes, entre ellos, uno de la consultora Deloitte, del que se hace eco el Wall Street Journal y que asegura que los riesgos de aquellos bancos que no se readapten a las nuevas condiciones del sector son más graves que en las dos décadas anteriores.

Y ello tiene mucho que ver con la coyuntura financiera de los últimos años. “La posición de los bancos se ha visto muy debilitada por la crisis económica, no solo en términos financieros, sino también de imagen pública”, señala Margaret Doyle, la responsable del departamento de Servicios Financieros de Deloitte.

El terreno que antes ocupaban los bancos empiezan a pisarlo nuevos bancos y compañías de pagos electrónicos. Según la consultora Accenture, en los próximos seis años los bancos tradicionales podrían perder hasta el 30% de sus ingresos por culpa de nuevos competidores como PayPal, propiedad de Ebay, con 148 millones de cuentas activas y que solo en Alemania se lleva aproximadamente una cuarta parte de los pagos realizados a través de Internet, como recoge este reportaje de El Mundo.

Otras compañías orientadas al crowdfunding, como Kickstarter, han abierto,una vía alternativa de financiación para los ciudadanos y sus proyectos. El informe de Deloitte asegura que el avance de las tecnológicas daña profundamente el modelo de banca tradicional.

Hay confianza en los nuevos actores

Facebook trabaja para conseguir una licencia bancaria en Irlanda y los usuarios de Google Wallet ya pueden comprar online o enviar dinero a través de sus monederos electrónicos. Si las regulaciones que antes blindaban el sector de la banca se hacen más laxas, el financiero podría convertirse en un sector muy prometedor para nuevos actores.

En una encuesta a 4.000 clientes de bancos de Estados Unidos y Canadá realizada por Accenture, el 29% afirmó que, en caso de que existiera, usaría los servicios bancarios de empresas tecnológicas como Google y Apple. Parece, por tanto, que el público está preparado para una nueva transición.

Deloitte también indica que el avance de los nuevos bancos amenaza a sus competidores más convencionales. Los clientes de estos nuevos actores cuentan ahora con mayor protección en la Unión Europea, donde ahora resulta bastante más fácil crear una entidad financiera y hacerse un hueco en el mercado de manera que hace diez o veinte años, afirman desde la consultora, resultaba casi impensable.

Fuente: ticbeat.com

El pasado jueves 19, FarmVille cumplió 5 años. El decano y líder de los juegos sociales nos lleva acompañando ya media década (primero desde Facebook, y más tarde desde las plataformas móviles) y Zynga, la compañía desarrolladora, ha anunciado para celebrarlo un “Verano FarmVille”. Zinga ha sido en estos cinco años la compañía de desarrollo de juegos sociales referente a nivel mundial, con casi 260 millones de usuarios activos mensuales jugando a su catálogo de productos, que incluye títulos comoCityVilleZyngaPokerDraw SomethingHidden ChroniclesCastleVilleWords with Friends, etc. Entre las plataformas que cubre están Facebook, Google+, iOS y Android (además de su propia web).

farmville

Pero el antaño líder del sector ha vivido una mala época en la que sufrió para adaptarse desde los juegos en Facebook a las plataformas móviles, como ya os contamos hace unos meses: hubo cierre de títulos y despidos de desarrolladores. En ese tiempo, su rival King.com le sobrepasó como principal proveedor de juegos sociales en Facebook gracias a juegos como Candy Crush Saga. Ahora, iniciado ya su cambio de estrategia y llegando a su quinto aniversario, pareciera que Zynga ha solventado sus problemas y que empieza otra buena racha para la compañía. Pero, aunque haya tenido menos difusión,Zynga anunció recientemente el cierre de algunos de sus títulos: el 22 de julio, retirará Hidden Chronicles (600.000 usuarios activos mensuales), Café World (516.000) y CoasterVille (998.000). ¿Qué ha pasado? ¿Qué fue de aquella época en que todo el mundo hablaba de las granjitas de Facebook y algunos analistas vaticinaban que las nuevas compañías de juegos iban a comerse el pastel de los viejos estudios para PC y videoconsola?

Juegos sociales: una moda gigante con los pies de barro

Tadgh Kelly, diseñador de videojuegos y trabajador en OUYA, analizaba el fallido boom de los juegos sociales hace sólo unos meses en Techcrunch:

Hubo un alto grado de disonancia cognitiva en la industria de los juegos sociales […] trataron de vender que tenían entre manos los ideales de Greenpeace impulsados por la economía de Las Vegas […] cuando lo que tenían entre manos era producto débil diseñado para poco más que manipular nuestra atención”.

Kelly prosigue su relato sobre una industria empeñada en vender un lenguaje buenrollista sobre el potencial de los juegos para la colaboración, la promoción de causas sociales, la lucha contra la depresión o el conocimiento intergeneracional… mientras que realmente las compañías se lanzaban a una carrera en la que la capacidad de respuesta a las tendencias importaba mucho más que la calidad. Y en esa carrera tampoco prestaron demasiada atención a la viabilidad del modelo de negocio (“Todos se pusieron a hacer diagramas de embudos de usuarios y hojas de cálculo de viabilidad y a hablar del movimiento ‘lean startup’ de Eric Ries […] pensaban que eran genios, que la forma de la industria había cambiado para siempre. Cuando, de hecho lo único que estaba ocurriendo era una fiebre del oro de usuario, que iba a parar pronto“).

La fiebre del oro paró cuando el mercado se saturó de juegos que, em muchos casos, eran clónicos los unos de los otros… y que además empezaron a comprometer la experiencia de usuario en la red social que les había visto nacer, llenando las notificaciones y muros de los usuarios de puntuaciones y solicitudes de juego. En ese punto, Facebook decidió cerrar el grifo y los juegos sociales empezaron a secarse, los debates sobre “colaboración” y “comunidad” se desvanecieron mientras los ingresos se estabilizaban y los gastos en publicidad se disparaban. ¿Y ahora? Muchos juegos integran funciones sociales para poder compartir y comparar puntuaciones con afán de alardear, pero si a eso han quedado reducidos los juegos sociales, queda claro que alguien entendió mal el concepto de social.

Fuente: ticbeat.com

¿LO MÁS VALORADO DE UNA APP?

Publicado: 20 junio, 2014 en Comuniación

Hace unos años que de la mano de toda la tendencia mobile que rodea el mercado de la navegación por Internet, las aplicaciones móviles se han postulado como una alternativa para generar un mayor engagement y fidelización con el cliente. Inicialmente todas las apps debían responder y programarse en base al sistema operativo, hoy en día ya es posible desarrollar aplicaciones multiplataforma que puedan utilizarse en cualquier móvil o tableta independientemente del sistema integrado.

apps-image

Así pues, el usuario abraza las apps pero su tiempo es el que es, y su atención solo puede estar en una sola app a cada momento. ¿Por qué iba a decantarse por la nuestra? ¿Qué le podemos ofrecer que no esté dándole ya nuestra competencia? En otras palabras: ¿qué aspectos valoran más los usuarios a la hora de utilizar una app?

Por supuesto, un primer punto a la hora de desarrollar aplicaciones multiplataforma es la usabilidad y la utilidad. La usabilidad se refiere a la sencillez y calidad de navegación de la propia app. Si los usuarios llegan a los contenidos que buscan, si no hay errores, si no hay bloqueos o reinicios inesperados y demás aspectos técnicos.

La utilidad es la base en el desarrollo de aplicaciones. ¿Qué va a aportar al usuario esta app que haga que quiera abrirla e interactuar por encima de otros canales? Y es que toda aplicación, como cualquier herramienta orientada al usuario, debe aportar un plus que no se ofrezca en otros métodos.

Comodidad, información, privilegios, descuentos, novedad, recordatorios, soporte, gestión… todo son posibles valores que percibirá el usuario una vez instale la app en su dispositivo móvil o tableta. Y es que la valoración del éxito o fracaso de todo desarrollo de aplicaciones multiplataforma no debe quedarse en la simple descarga, sino que debe abordar aspectos como el tiempo en app, recomendaciones, frecuencia de uso… y todo ello cruzarlo con los objetivos y KPI estratégicas que nos hayamos marcado previamente al desarrollo de la aplicación.

Para pasar a la acción, existen plataformas que permiten crear apps móviles sin necesidad de tener conocimientos avanzados de programación. ¿Habéis diseñado alguna app para vuestra empresa? Compartidlo con todos en los comentarios de este artículo.

Fuente: ticbeat.com

ILT

Publicado: 19 junio, 2014 en Comuniación

Nadie duda que las Incapacidades Laborales Transitorias (ILT) representan en nuestro país una clara vía de absentismo laboral, tanto por la causa sobre las que se establecen como por la duración en el tiempo de las mismas. Sin embargo, en los últimos años se viene llevando a cabo un mayor control y vigilancia sobre las mismas, tanto a nivel de las consultas de Atención Primaria como a través de las unidades de inspección, tanto autonómicas como nacionales.

seguros-de-incapacidad-laboral-976x231

Sin embargo, parece que el Gobierno pretende ajustar un poco más las clavijas a través de un Real Decreto que se aprobará en julio, por el que se establecerán unas tablas con la duración media de las bajas de enfermedad, en función del diagnóstico, la ocupación y la edad del trabajador, con el objetivo de luchar contra el absentismo laboral injustificado y ahorrar dinero al sistema.

Ya en el siglo V a. de C., Hipócrates, padre de la medicina occidental, afirmaba, en su intención de individualizar cualquier proceso de enfermedad, que “no existen enfermedades sino enfermos”. Veinticinco siglos después, el profesor Gregorio Marañón hacía suyo el pensamiento hipocrático, dando al mismo el valor de su actualidad aún con el paso del tiempo.

Por eso que someter a unas tablas, supongo que con todas las garantías estadísticas, la duración del proceso de enfermedad, basándolo solo en tres premisas de las múltiples que pueden incidir en la evolución de un paciente, me parezca, al margen de mercantilista, por el ahorro económico que se pretende, de un pragmatismo empírico que choca frontalmente con el principio que establece la clara diferenciación de cada enfermo, incluso ante una misma enfermedad.

Pero no sólo eso, el Real Decreto vendría a vulnerar la libertad individual de los facultativos, ya sean asistenciales como en las áreas de inspección, a la hora de determinar cuándo un enfermo está en disposición de reincorporarse a su vida cotidiana, tanto laboral como social.

Es cierto que, con cinco minutos de consulta con el enfermo, resulta muy difícil realizar una historia clínica completa que contenga los suficientes elementos de juicio, tanto físicos como psíquicos, para individualizar el proceso de enfermedad.

Ante ello, no es de extrañar que planteada la duda por parte del enfermo, con una patología real o ficticia, el médico de cabecera opte por conceder o mantener una situación de baja por temor a equivocarse, dejando en manos de los servicios de inspección la decisión final.

Ello provoca, evidentemente, que en algunos casos se dilaten sin soporte clínico situaciones de incapacidad que generan un sobrecoste económico y, no lo olvidemos, con las políticas de personal que se vienen siguiendo en muchas empresas –no digamos ya la Administración–, al no proceder a la sustitución del trabajador enfermo por otro activo, también una disminución de la calidad de los servicios y una mayor presión laboral hacia el resto de trabajadores activos que ven cómo tienen que realizar un doble trabajo, el propio y el del trabajador ausente sin, por otra parte, compensación económica u horaria alguna.

No creo que la solución a este problema, que no dudo que sea real porque convivo en un medio laboral con abundante plantilla, haya que buscarla en la rigidez y el formulismo de unas tablas sino en la calidad del estudio al enfermo, que va muy unida a la disponibilidad horaria de los facultativos para evaluar a sus pacientes y a un mayor apoyo hacia aquellos en la toma de decisiones, de forma que la consulta médica no se convierta en un foco de conflictividad entre los enfermos y los médicos que los atienden.

Por supuesto, también, en una más fluida atención a la hora de realizar ciertas pruebas complementarias y no digamos para acceder a las consultas de Medicina especializada, que en muchos casos ofrecerán un diagnóstico de mucha mayor precisión con el que valorar si el paciente está o no capacitado para su reincorporación al trabajo.

Si en 2.500 años no se ha modificado la premisa de que cada enfermo es un mundo diferente al que hay que tratar de manera individualizada, introducirnos a todos en una mera gráfica supondrá –a todas luces– intentar burocratizar la salud con resultados de los que dudo.

Es el médico y sólo el médico quien debe ostentar la capacidad y, desde luego, la responsabilidad, para determinar el estado de salud de su paciente, valorando del mismo todas sus variables. Ello iría en el sentido de humanizar la Sanidad frente al proceso deshumanizador que hoy vive apoyado en criterios economicistas de difícil justificación a veces.

Fuente: Enrique Bellido

EL INTERNET EN GLOBO DE GOOGLE

Publicado: 18 junio, 2014 en Comuniación

Hace ahora un año Google dió a conocer al público Project Loon, un programa de investigación que persigue el desarrollar una red de globos aerostáticos dotados de la tecnología necesaria para hacer llegar Internet a aquellas partes del planeta que aún no disponen de acceso por problemas económicos y de infraestructuras. Desde entonces poco más habíamos sabido sobre él, hasta ahora que Astro Teller, líder de la iniciativa, y otros ingenieros involucrados en la misma han proporcionado una radiografía bastante completa sobre el estado actual del proyecto.

51bf49be3295b-48970445-3392-4EA6-BF7D-73388818B05E_w640_r1_s

¿Y en qué punto se encuentra? Pues en base a las declaraciones de Teller y las del resto podemos decir que en los últimos 365 días han logrado avanzar muchísimo. Afinando más, han explicado que ya consiguieron superar los dos escollos más importantes a los que se enfrentaba Project Loon: aumentar el tiempo de vuelo de los globos, y mejorar las velocidades de conexión que podían proporcionar.

Poniendo el foco en esos dos aspecto, Teller explica que cuando arrancaron el proyecto normalmente los globos no aguantaban más de dos días en el aire, pero ahora de media los vuelos están durando 75 días por globo (si todo va como planean en 2015 alcanzarán los 100 días), y que los entre uno y dos megas por segundo en promedio de velocidad que proporcionaban han sido aumentados hasta unos nada desdeñables 22MB/s cuando transmiten a una antena situada en tierra y 5MB/s cuando lo hacen directamente a un móvil (esto es gracias a que fueron capaces de meterles conectividad LTE a los globos aerostáticos, en un principio sólo tenían wifi).

Así que a todos los que en su día dijeron que Project Loon era inviable no les queda otra que tragarse sus palabras. Y es que no sólo han demostrado que es completamente viable sino que las cosas están yendo tan bien que en 2015 esperan tener en marcha una red de entre 300 y 400 globos lo suficientemente fiable como para proporcionar Internet a través de ella de forma continúa en determinadas áreas. En palabras del propio Taller:

En el segundo cumpleaños de Loon esperaría que, en lugar de experimentos, tengamos más o menos un grupo permanente de globos. En uno o varios países encenderás tu teléfono y hablarás a los globos. Loon estará dando el servicio”

Cuándo y en qué países tienen pensado proporcionar Internet a través de la red Loon no lo dijo. Sin embargo proporcionó un último dato interesante sobre el tema con el que ponemos punto y final: Project Loon no se limita sólo a las zonas rurales inaccesibles, también planean utilizar el sistema para “rellenar los puntos muertos” de ciudades y demás en los que por los edificios, las colinas o cualquier otra cosa las señales de las redes desplegadas quedan bloqueadas (probablemente no lo hagan directamente sino asociándose con ISP de renombre, de ahí que ya estén trabajando con varios como por ejemplo Vodafone).

Fuente: ticbeat.com

Ahora sí, tras anunciar hace unos días la próxima apertura de su gran tienda en Madrid, en el en carismático edificio del Tío Pepe, en el número 1 de la Puerta del Sol, Apple ha desvelado la fecha de inauguración, que tendrá lugar el sábado 21 de junio a las 9:30 de la mañana. Apple no ha confirmado si el evento contará con la presencia de alguno de los altos ejecutivos de la compañía que suelen visitar las aperturas de las grandes Apple Store, aunque se espera que pudiese aparecer Angela Ahrendts, exCEO de Burberry, y vicepresidenta de “retail” y de las tiendas en Internet de Apple, e incluso el propio Tim Cook quien también ha visitado las inauguraciones de algunas tiendas en mercados clave (aunque en este caso la apuesta más firme es que sea la nueva responsable de las tiendas quien esté presente).

apple-store-madrid

La tienda de la puerta del Sol será la Apple Store número 11 que se inaugura en España y la tercera de las tiendas que Apple pone en marcha restaurando edificios en el centro de ciudades españolas, junto con la Apple Store Calle Colón de Valencia y la Apple Store Paseo de Gracia en Barcelona. En este caso, además de la rehabilitación del edificio, parece que Apple ha tenido mucho que ver en el cambio de situación del conocido luminoso de las bodegas González Byass que se ha trasladado a otro de los edificios de la plaza. No obstante, Apple no va a colocar ningún luminoso ni elemento de publicidad sobre la fachada del edificio aunque sí es posible que tenga una gran lona o bandera con el logotipo de la manzana. Como ya informamos hace algunas semanas, la tienda tendrá 6.000 metros cuadrados y en ella trabajarán unos 125 empleados, lo que la convierte en la mayor del continente y al edificio se trasladarán las oficinas centrales de Apple en España, que hasta ahora se encuentran en la Plaza de la Lealtad, también en el centro de Madrid.

Además, la nueva tienda inaugura algunos elementos peculiares en su diseño que hasta ahora no se habían visto en las Apple Store como una nueva “Genius Bar” de 360 grados; la primera de este tipo en España.Los empleados de esta zona de atención al público, los “Genius”, expertos en las diferentes áreas de productos Apple, responderán preguntas y dudas, darán consejos, resolverán problemas técnicos y, si el producto necesita reparación, lo harán en muchos casos en el acto o en un plazo de 24 horas. Para usar esta zona de atención, cualquiera podrá reservar cita en la web o usando la app de la Apple Store.

Por supuesto, en la tienda habrá zonas específicas para probar iPads, iPhones, Macs e iPods, y un gran espacio dedicado a accesorios y complementos creados por terceras partes. Del mismo modo, Apple espera que la tienda sea un centro de animación y formación alrededor de su plataforma y de las actividades de creación tradicionalmente unidas a sus productos como la edición de fotografías, creación de películas. Para ello, la tienda contará con talleres gratuitos diarios para aprender, por ejemplo a mejorar las fotos, editar películas, diseñar documentos de calidad, manejar hojas de cálculo, hacer presentaciones multimedia, etc. Habrá un amplio calendario de talleres todos los días, de una hora de duración, y se puede reservar plaza en la web o usando la app de la Apple Store.

Por último, como hace en otras Apple Store, el fabricante programará excursiones para alumnos y profesores con actividades educativas en la tienda como la creación de películas, composición de música o retoque de fotografías; o bien pueden traer sus trabajos ya realizados para perfeccionarlos con la ayuda de especialistas. Asimismo, Apple organiza también en sus tiendas lo “Campamentos Apple”, gratuitos, para niños de entre 8 y 12 años que tienen una duración de tres días, y en los que los niños aprenden a hacer películas en las instalaciones de la tienda, con la ayuda de los especialistas; y eventos especiales durante todo el año, como actuaciones musicales o eventos con creadores.

Fuente: ticbeat.com