Sexting

Teen Sexting

¿Que es el Sexting?

El sexting consiste en el envío de contenidos de tipo sexual (principalmente fotografías y/o vídeos) producidos generalmente por el propio remitente, a otras personas por medio de teléfonos móviles.

Cómo y por qué se origina

Desde el origen de los medios de comunicación, las personas los hemos usado para enviar contenidos de tipo sexual (eróticos, pornográficos, etc.), pero con las NTIC surge un peligro: la difusión masiva e incontrolada de dichos contenidos.

En el caso de sexting se trata de contenidos muy íntimos, generados por los propios remitentes, mediante la grabación de sonidos, fotos o vídeos propios en actitudes sexuales, desnudos o semidesnudos, normalmente con destino a una pareja sexual o amorosa, aunque también en no pocas ocasiones a otros amigos, como un simple juego.

Factores precursores en los jóvenes

– Creen que una imagen en un terminal móvil está segura y no son capaces de proyectar, de imaginar, las variadas formas en que esa imagen puede salir del dispositivo.

– Confían plenamente en la discreción —cuando no en el amor eterno profesado— por parte del destinatario del envío. Carecen de experiencia vital suficiente que les invite a pensar en que las cosas, en la vida, cambian por muy diversos factores.

– Sienten cierta presión de grupo que les lleva a ganar notoriedad y aceptación en este contexto, el digital, tan importante para ellos.

– Las influencias y modelos sociales distan del recato. La exhibición de relaciones sexuales o desnudos por personas no profesionales, comunes, abundan en la Red. Si pueden ver a cualquier persona anónima en su intimidad a través de la Red, no parece tan grave que uno aparezca de esta guisa.

– Desconocen las consecuencias que para su vida puede llegar a tener el hecho de que esa imagen comprometida sea de dominio público.

– La natural falta de percepción del riesgo que acompaña a la adolescencia y el espíritu transgresor.

– El contexto cultural en el que crecen muchos adolescentes, con un marcado culto al cuerpo, a las celebridades, y en el que los medios de comunicación de masas (sobre todo la TV) promueven esos y otros valores como por ejemplo la competitividad en todos los órdenes de la vida (tener el mejor cuerpo, el mayor número de amigos, ser el/la más popular…). El hecho de que muchas estrellas del deporte, el cine o la música realicen sexting y esto se trasmita por los medios, contribuye a normalizar e incluso dar cierto aire de prestigio a dicha actividad entre los adolescentes.

– Los adolescentes podrían tomar las imágenes de sexting como un sustituto de las relaciones sexuales, o como sexo seguro.

Según un estudio publicado en la revista Pediatrics el motivo más común para el sexting entre adolescentes era una relación sentimental, aunque también se citaron las bromas y el ligue. Una cifra importante de los menores que salían en el sexting (31%) lo habían hecho en relación con el consumo de alcohol o drogas.

– La organización ConnectSafely ha determinado en un estudio que las principales razones para producir y/o trasmitir sexting son las siguientes:

Noviazgo

Coqueteo

Lucimiento

Impulsividad

Presión de los amigos

Venganza

Intimidación

Chantaje

– Los destinatarios de las imágenes de sexting son principalmente, según estos estudios:

      1. alguien que les gusta (21%);
      2. el novio (20%);
      3. el ex novio (19%);
      4. amigos en general (18%);
      5. su mejor amigo (14%);
      6. desconocidos (11%)
      7. compañeros de clase (4%)

– Los jóvenes se sienten a menudo más cómodos compartiendo informaciones íntimas o comportándose de una manera sexualizada online que fuera de la Red.

– La ruptura de una pareja es una causa frecuente de los casos de sexting distribuido sin autorización.

“Para los jóvenes, mostrar el cuerpo es considerado como un asunto de belleza, no pasa por los códigos morales impuestos por los adultos”, según la investigadora Luz María Velázquez Reyes, del Instituto Superior de Ciencias de la Educación del Estado de México.

Peligros

– Riesgo de exposición a pederastas y otros acosadores o chantajistas.

Un/a menor que se fotografía en actitudes sexuales puede sugerir una precocidad sexual a ciertas personas a las cuales les llegue la fotografía o vídeo, y provocar el deseo de un encuentro lo que implica un posible abuso o corrupción del/a menor o exponerles a un chantaje de tipo sexual relacionado con el denominado grooming.

– Responsabilidad penal.

La imagen de una persona está protegida por la Constitución y por leyes como la Ley de Protección de Datos o el Código Penal; así, por ejemplo, un reenvío de una foto de sexting podría considerarse delito de revelación de secreto.

– Riesgos psicológicos y sociales.

Una persona cuya imagen o vídeo erótico es distribuido sin control puede verse humillada públicamente y acosada (ciberbullying si es entre menores), y sufrir graves trastornos a causa de ello.

SEXTING

– Webs dedicados a recopilar y explotar comercialmente las fotos y los vídeos creados mediante sexting.

Cualquier imagen sexual que salga de tu teléfono, de tu webcam o de tu email, puede acabar en uno de estos webs y proporcionarle beneficios económicos a terceros y alimentar las fantasías eróticas de miles de internautas.

– Webs dedicados a recopilar fotos de ex-novias o ex-esposas.

Habitualmente desnudas, sólo en ocasiones distorsionadas para no reconocer su rostro, y que sus ex-parejas envían generalmente por despecho o venganza.

– Proyectos artísticos online basados en el envío de autorretratos de sexting.

Aunque en principio sólo admiten fotos enviadas voluntariamente por personas mayores de edad y con determinados criterios artísticos, es dudoso que dispongan de mecanismos efectivos para controlar que el autor es efectivamente la persona fotografiada así como la edad de dicha persona.

Consejos para jóvenes y adultos

– Piénsatelo antes de enviar.

Lo que publicas online o sale de tu propio móvil se convierte en irrecuperable, escapa para siempre de tu control y puede llegar a cualquiera en cualquier momento. Lo que ahora quieres mostrar de ti, mañana puede que no te guste. A quien se lo envías hoy, quizás mañana no sea tu amigo.

– Desnudez y minoría de edad, delito de pornografía infantil.

La pornografía infantil es un delito cuando se crea, se posee o se distribuye. Se considera pornografía infantil la protagonizada por quien no ha cumplido los 18 años.

– La imagen es un dato personal cuyo uso está protegido por la Ley.

La imagen de alguien no se puede utilizar sin el consentimiento de la persona implicada.

– Recibir o tomar una imagen de una persona no te da derecho a distribuirla.

El hecho de contar con una imagen (fotografía o vídeo) en tu teléfono móvil no significa que tengas derecho a hacer con ella lo que quieras. Son cosas diferentes. Incluso si te dieron permiso para tomar la imagen, no significa que la puedas enviar a terceros.

– La Ley actúa siempre, también para los menores, con Internet y los móviles.

Que todo el mundo lo haga, que consideres que no van a poder identificarte, o que seas menor de edad no te libra del peso de la justicia.

– No participes con tu acción, tu risa o tu omisión.

Cuando el sexting deriva en humillación y acoso colectivo, la víctima sufre un daño enorme, un sufrimiento extremo. Si lo promueves y lo jaleas, eres responsable. Si te callas, tu silencio ayuda a quien acosa y hiere a la víctima.

Consejos para padres

– No niegues el problema y toma medidas.

A tus hijos también les afecta. Reconoce que la combinación de la tecnología con las hormonas adolescentes puede resultar explosiva.

– Habla con tus hijos. Edúcales también sobre el sexting.

Tienes que hablar con ellos acerca de su actividad en Internet y con sus móviles del mismo modo que necesitas hablar con ellos sobre el sexo en general y sobre sus relaciones. Hazles comprender que las fotos y mensajes que envían por medio de sus móviles no son en realidad anónimos ni privados. Y que entiendan que otros pueden reenviarlo sin su consentimiento.

– Entérate de con quién se comunican.

¿Con quién hablan en el ciberespacio? ¿A quién envían y de quién reciben mensajes y llamadas en sus móviles? ¿Quiénes son sus amigos en las redes sociales online? Supervisar su cibercomunicación no convierte a una madre o un padre en cotillas: es parte de nuestra responsabilidad para con ellos.

– Revisa su presencia en la Red.

Habla con ellos sobre lo que ponen como público y lo que mantienen como privado y mantente/mantenlos informados sobre los problemas de seguridad que surgen en este tipo de comunidades virtuales y del riesgo de que alguien asocie sus fotos con dichos perfiles sociales.

– ¿Realmente les hace bien el móvil? ¿Realmente lo necesitan? Ponles un límite de uso.

– ¿Realmente necesitan mandar mensajes multimedia? Y ¿sólo de texto? ¿Necesitan cámara en su móvil?

Por lo general contar con la capacidad de mandar SMSs o navegar a través de internet con su móvil no es necesaria para un/a niño/a, aunque hay que tener en cuenta que cuando entran en la adolescencia puede formar parte de su manera de relacionarse con su grupo de amigos y por tanto hay que sopesar los pros y contras de que lo usen, así como qué alternativas de comunicación pueden tener disponibles que sean más seguras. Considera la posibilidad, en función de su edad, de bloquearles la función de envío de los SMSs, de la mensajería instantánea u, opcionalmente, de no dejarles tener un móvil que las incluya.

– Tú pones las normas: también online.

Del mismo modo que les pones hora para llegar a casa o sobre otros aspectos, también debes dejarles claro qué es lo que admites que hagan en la Red y con sus móviles.

– Que cuenten contigo.

…Y si algo falla o alguien los molesta o su información acaba donde no debe, que sepan que estarás ahí para ayudarles, y que no teman contarte cualquier problema online o con sus móviles. Ten cuidado de que no se sientan avergonzados por ti ni humillados.

– Infórmate sobre riesgos asociados.

El ciberacoso, el ciberbullying y el grooming son problemas en ocasiones asociados o derivados del sexting. Infórmate también sobre ellos. Y aconseja a tus hijos que estén al tanto sobre las repercusiones legales de sus actos.

Si de todas formas haces sexting…

– Sé consciente de los riesgos y no olvides que es muy fácil tener un descuido y que las cosas no salgan como pensabas. El sexting totalmente seguro y controlado no existe.

– Evita que la foto muestre tu rostro, para evitar que se relacione contigo en caso de difundirse.

No obstante, puedes tener algún otro rasgo que te identifique en el cuerpo (piercings, tatuajes, marcas, ropa, contexto donde está sacada la foto, etc.) e incluso alguien que supiese que eres tú podría hacer un fotomontaje con una foto de tu cara obtenida de otro lugar, para reconstruirte desnuda/o.

– Piensa muy bien a quién se lo mandas y cuándo se lo mandas.

Cuanta menos confianza tengas con esa persona, más riesgo correrás de que difunda tu foto, mostrándosela o reenviándosela a otras personas. Es recomendable que en caso de querer hacer sexting, pese a todo, se haga sólo con gente con quien haya absoluta confianza y un trato íntimo. Incluye en el mensaje un aviso de que es “sólo para sus ojos”, o similar, que le deje totalmente claro que no quieres que la vea nadie más.

– Hacer sexting para ligar (coquetear, flirtear…) es especialmente arriesgado.

Puede parecer muy excitante pero supone un alto nivel de riesgo pues en estos casos no se suele tener aún suficiente confianza con la persona a quien se lo envías y no puedes tener ninguna seguridad de lo que hará con ella, aunque le pidas expresamente discreción. Si decides aun así, enviarlo, procura que la foto no sea muy reveladora y que no se te vea la cara.

– Aunque tengas confianza con la persona a quien le envías la imagen…

ten en cuenta que a veces las personas en quienes confiamos nos traicionan o simplemente, por descuido o ignorancia de los peligros, acaban poniéndonos en peligro. Además, con el tiempo las relaciones cambian y quien es hoy tu pareja de absoluta confianza, puede dejar de serlo y la ruptura no ser amistosa.

– Diferentes tipos de imagen a diferentes personas.

No le envíes fotos tan atrevidas o explícitas a personas a quienes deseas conquistar, como lo harías a un pareja con quien tienes ya años de confianza.

– Envía preferiblemente imágenes encriptadas.

Si la imagen la envías por Internet, cualquier ordenador que esté entre el tuyo y el del receptor (servidores, encaminadores, etc.) podrá ver la imagen. El correo electrónico normal es tan poco privado como una tarjeta postal: cualquiera por cuyas manos pase, podrá leerlo. Por tanto, conviene usar correo electrónico encriptado o al menos encriptar el fichero que contiene la imagen.

– Borra siempre.

Es posiblemente el consejo más importante para el receptor. Si alguien ha confiado tanto en ti como para mandarte una foto o mensaje de sexting, no desmerezcas esa confianza y en cuanto la hayas visto, bórrala.

– Asegúrate de que tu imagen no lleve coordenadas de geolocalización.

Es posible que tu teléfono celular tenga activada la función de GPS y que añada automáticamente las coordenadas de las fotos que toma.

– Evita el sexting cuando estés demasiado excitado/a.

Es más probable que en ese estado cometas errores, por ejemplo al elegir el destinatario, o que caigas en algún otro descuido peligroso.

– Si quieres que tu pareja tenga una foto tuya desnudo/a, es más seguro que sea en papel y no en formato digital.

– Cuando una relación termina…

es muy recomendable pedirle a tu expareja o exligue que elimine todas las fotos sexuales o comprometidas que pueda tener de ti en su móvil, ordenador y en el correo electrónico. Nunca estarás seguro/a del todo de que lo ha hecho, ¡por eso es tan arriesgado hacer sexting incluso con tu pareja!

– Sexting e infidelidad.

Si tienes una relación con alguien y haces sexting con otra persona, pregúntate cómo se sentiría tu pareja si lo descubre. Además de ser un problema ético y moral, aumenta de manera importante los riesgos de daño para ti y para tu pareja.

Referencias:

– Información obtenida de sexting.es

– Animaciones creadas por Pantallas Amigas

– Para información más completa y detallada, visitar la web especializada sexting.es

Google deja atrás a la comunidad open source a medida que evoluciona Android

Android se creó como un sistema operativo móvil de código abierto y precisamente por esto cualquiera puede obtenerlo, clonarlo y crear su propio fork o versión alternativa. En el momento en que una empresa abraza el open source pierde el control total sobre este y la comunidad de desarrolladores adquiere una importancia vital. Pero el caso de Google con Android es digno de estudio. Como un perfecto caballo de troya, la expansión de Android ha propiciado un uso masivo de los servicios propietarios de Google.

Basándonos en este genial artículo de Ars Technica donde se planteó el debate, vamos a repasar un poco los puntos clave de como Google ha ido mejorando el código de Android pero del cual, ya que no todo es abierto, las mejores partes son precisamente aquellas que no han sido compartidas para trastear. Para El Androide Libre es un tema vital, que forma parte de nuestro origen y que cuando todo esto empezó no sabíamos como iba a evolucionar.

Licencia de corazón libre y evolución comercial

Si consultamos el FAQ sobre la licencia libre utilizada por Android encontraremos una justificación de por qué se encuentra bajo Apache2 en vez de GPL. Principalmente las licencias copyleft obligan a aquellos desarrolladores a distribuir su trabajo con el mismo tipo de licencia, limitando entonces la evolución del ecosistema para aquellos que quisieran exprimir la parte comercial de esta. Al contrario que el kernel de linux cuyo éxito es en parte gracias a la comunidad generada gracias a GPL, los de Google decidieron que Android ofrecería una experiencia más parecida a la de su archienemigo privado. La venta de apps a través de un market ha sido un mercado enorme y exitoso, por contra la lista de aplicaciones open source es bastante limitada en comparación.

El código de Android se puede encontrar fácilmente en la web, pero por contra encontramos problemas con los drivers privativos fundamentales que se necesitan para que todo funcione optimizadamente. Quéru denunció en su día que como era posible que uno de los productos estrella de Android no liberara los drivers de su GPU. Qualcomm terminó rectificando y ofreciendo a la comunidad los drivers de sus Snapdragon, pero aun a día de hoy seguimos sin poder aprovechar el Project Butter en algunos Exynos.

Para Google mientras que en sus dispositivos Nexus todo sea compatible no parece que se esfuercen por apretar las tuercas a los demás fabricantes para que liberen también sus códigos, y ahí volvemos otra vez a la diferencia entre la licencia GPL y la Apache.

No lo olvidemos, Google sigue y seguirá trabajando en mejorar Android (movimientos como la compra de Flexycore así lo certifican) y la idea para KitKat es crear una “experiencia extraordinaria para todo el mundo”. Una manera de interpretar esta afirmación es asumir que se introducirán mejoras para los dispositivos con pocos recursos, tablets, TVs… pero otra vía es interpretarlo como que Google lo que en realidad quiere es que la experiencia para todo el mundo sea únicamente la que sus servicios ofrezcan.

Entendamos que Android pertenece a la Open Handset Alliance en la que Google es una de sus principales partes, pero no la única. Esta alianza no es sino los múltiples fabricantes que entre todos participan en el Android Open Source Project, el verdadero Android libre y al cual todos tienen acceso. Nos vamos a dar cuenta sin embargo que no es oro todo lo que reluce y que la diferencia entre el Android ideal para Google y el Android ideal para la comunidad es abismal.

Google Play Services; principal problema para AOSP

Hay que diferenciar las aplicaciones instaladas de fábrica del sistema operativo. Si alguna vez te has preguntado por qué en las ROMs había que instalar de manera separada las GApps de las aplicaciones base es porque las primeras pertenecen a Google y no son aplicaciones open source en mano de los desarrolladores. Google no quiere que nadie modifique sus servicios desde el principio, por lo que se optó ya hace tiempo de ofrecerlas en un pack separado de AOSP.

AOSP ofrece su propio material open source y ha desarrollado las aplicaciones propias como la del Calendario, música, buscador… pero aquí está el quid de la cuestión. El verdadero poder de Google en el sector móvil se basa en el control de las Google Apps, ofreciendo un servicio mucho mejor que su alternativa libre basada en la nube de información del buscador. 

Las GApps incluyen desde la aplicación de Gmail hasta la propia Play Store, y cuentan con una línea de diseño aparte de la de Android y con una clausula vital; si aceptas una, aceptas todo el pack. Si quieres tener acceso a GMaps entonces aceptas G+, si quieres acceso a la Play Store aceptas los pagos por Google Wallet.

La diferencia entre las aplicaciones de código libre que podemos encontrar en repositorios como f-droid o ROMS como AOKP de las nativas de Google es abismal. Hay una gran cantidad de trabajo detrás de las aplicaciones de AOSP, incluso la propia Google ha colaborado activamente en su desarrollo pero llegado un punto los de Mountain View convierten una apk básica y libre en un servicio que utiliza APIs propietarias mucho más completas.

Hay múltiples ejemplos de como Google maneja las aplicaciones:

  • En el Google I/O 2013, Google renovó su API de Localización para que formara parte de sus Google Play Services.
  • Las aplicación nativa de galería pasará a formar parte de G+ Photos como se ha visto en los rumores sobre KitKat.
  • Google Cloud Messasing (GCM) es la manera más fácil de sincronizar notificaciones entre Android, pero es un servicio que no veremos en las alternativas libres basadas en AOSP.
  • Android Payments se substituye por Google App payment.
  • Google Music era simplemente un reproductor hasta que se empezó a ofrecer la venta de música en la Play Store.

Google ha transformado cada una de las aplicaciones nativas; no es de extrañar que en el futuro veamos una aplicación del Reloj distinta, quién sabe si integrada con Google Now. El resultado de todo esto además es evidente; la alternativa libre no puede competir contra la app privada de Google. Como dice Ron Amadeo, Android es libre, excepto en las mejores partes.

AOSPvsGoogle

No solo se trata de APIs abiertas contra APIs cerradas. Los desarrolladores tienen dos opciones diametralmente opuestas. La primera es aceptar las condiciones de Google y utilizar sus servicios con la idea de mirar pero no tocar. Podrás aprovechar la Play Store y algunos servicios como el de localización, que ofrecen una solución buena, barata y compatible, mucho mejor que casi cualquier otra opción. Por otro lado es posible que los desarrolladores quieran utilizar una solución independiente a costa de un gasto de recursos mucho mayor.

En muchos casos tendremos la espalda contra la pared, pues quién querría invertir horas de trabajo en algo que luego puede que Google no acepte en su sistema o incluso que al final por querer introducir una funcionalidad se tenga que aceptar el pack. El ecosistema de aplicaciones Android se está convirtiendo más bien en un ecosistema de Google, donde se rigen sus reglas y se utilizan sus servicios, que aunque mejores que la mayoría, siguen siendo suyos. Además Google es un padre exigente; aunque las nuevas versiones de Android estén optimizadas para bajos recursos las Gapps no lo están. De ahí que veamos esas tablets chinas corriendo Android pero sin acceso a GPlay.

Aquellos desarrolladores que abracen los Google Play Services tendrán la bendición de Google, pero ojo con aquellos que quieran tocar algo que se escapé de su ojo avizor, pues verán como el mundo bajo sus pies se desmorona a base de incompatibilidades. Solo unas cuantas empresas son capaces de gastar los suficientes recursos como para escapar de esta situación.

No lo llames Blootware, llámalo ecosistema propio

En el momento en que el fabricante de un smartphone quiere utilizar una app que no es open source debe pedir permiso a Google. Sería todo un sueño y un regalo monumental si Google licenciara sus aplicaciones, pero eso jamás lo veremos ya que hay millones de euros detrás de este ecosistema.

Esta es la razón de existencia de Touchwiz y equivalentes, no solo es una manera de reforzar la imagen de marca, en este caso de Samsung, sino de buscar una alternativa a los estrictos servicios de Google y por qué no, quitarle parte del beneficio económico.

lolsamsung

A pesar de que Google ya sacó cosas para verificar las apps del sistema es muy común encontrarse con móviles con hasta tres aplicaciones prácticamente iguales. ¿Cuantas aplicaciones de correo has llegado a tener instaladas? ¿Qué diferencia las distintas aplicaciones de calendario? ¿Qué beneficios tiene S translator vs GTranslate?

El bloatware llega hasta niveles insospechados, casi ninguna aplicación libre acaba siendo la instalada de fábrica por el vendedor. Samsung, al igual que Sony y demás, nos ha vendido a través de su gama estrella toda una serie de servicios que nos hace olvidar a Google por un momento y que si nos pasamos a otra marca echaremos de menos. Esta pelea acaba de empezar, y a la vuelta de la esquina tenemos un Google Experience Launcher que estará para convencernos que aunque tengamos un Samsung no tenemos por qué utilizar sus apps propias. Una manera de hacer prevalecer otra vez la marca google pura incluso en las marcas de los otros. Y como no, este launcher vendrá de base en cada smartphone, teniendo que aceptarlo como parte del paquete de los Google Play Services.

¿Hacer un fork de Android es un buen plan B?

Algunas marcas están empezando a adoptar posiciones cada vez más fuertes. Otras no tienen problemas por ahora. Dudamos que Google haga la vista gorda en sus condiciones, y hasta el momento los miembros de la Open Handset Alliance tienen contractualmente prohibido crear una versión de Android no aprobada por Google. 

Un fork no es otra cosa que una versión alternativa, y no son pocos los interesados en crear un fork de Android. Actualmente existen varios ejemplos exitosos y lo interesante es que han surgido de formas e intenciones muy distintas.

  • Barnes & Nook creó una versión sin pretensiones de substituir las apps de Google, un fork concreto en la que Android era un sistema perfecto, estable y que ahorró gran cantidad de recursos a la empresa de lectores electrónicos.
  • Aliyun OS en China es un fork de Android creado por Alibaba (¿Yahoo?) que levantó la atención de Acer, sin embargo hubo un momento en que Google hizo público un post comunicando y excusandose de que ese proyecto debía cancelarse.
  • El siguiente es un poco más conocido por todos. Kondik, uno de los contribuidores de Cyanogen, se está tomando muy en serio la posibilidad de realizar su propio sistema operativo. Cyanogen no tiene permiso para distribuir el firmware propietario de Google, pero no es algo que les preocupe. Ellos están comprometidos con no pervertir el núcleo del sistema (aunque algunas partes sí serán privativas) y pretender añadir funcionalidades a Android que Google no se ha molestado en hacer, como una mejora en la seguridad gracias a una criptografía más fuerte. ¿Quién es al final el más interesado en que se potencie el núcleo de Android?
  • Y a continuación, el quizás único caso de éxito comercial de un fork de Android. Kindle OS es la respuesta de Amazon. Y se trata de la única compañía lo suficientemente potente y con un ecosistema en la nube propio como para poder sobrevivir sin las killer apps de Google. Amazon ha tenido que pelear duramente en numerosos aspectos para conseguir que avance su idea. Para crear su Kindle tuvieron que acudir a Quanta Computer, una empresa que al contrario que los demás fabricantes no estaba comprometido con Google y Android. Los rumores sobre la alianza de HTC y el smartphone de Amazon supondrían un revés para Google importante, aunque no estamos muy seguros de que lo mejor para HTC sea crearse más enemigos.

No solo es cuestión de hardware, para poder tener un servicio de localización alejado de Google, Amazon tuvo que pagar una tasa para conseguir los datos de los mapas de Nokia. Un perfecto ejemplo de como funciona todo. Google ofrece sus servicios gratis, pero las compañías prefieren pagar importantes tasas para mantenerse independientes. 

nexus-kindle-apps

No todos tienen la suerte de tener un ecosistema como el que tiene Jeff Bezos. Mientras que Amazon es una máquina de copiar las apps de Google, Samsung por ejemplo es una empresa de electrónica. A pesar de eso muchos son los que pretender crear su propio fork de Android.

Un fork debe suponer un cambio radical, una alternativa suficientemente interesante como para justiticar no acogerse a Google Play. Millones de aplicaciones son instantáneamente compatibles con tu sistema, aunque no accesibles ya que se encuentran alojadas en los repositorios de Google. La base de usuarios se utiliza como reclamo para no querer irse por separado, pero son precisamente los usuarios los que al final decidimos con quién nos quedamos. Y este es un miedo innato para Google, el mayor temor es que se cree una alternativa lo suficientemente poderosa como para amenazar su dominio sobre Android. Parece fácil, solo hay que convencer a los desarrolladores de que corran sus apps en tu ecosistema, simple pero ardua.

El poder de la comunidad seguirá siendo el futuro de Google

Da igual cuantas veces una gran empresa intente controlarlo todo, al final serán los usuarios los que decidiremos que vamos a hacer. La existencia de Linux con tantos forks e ideas compartidas sería un gran modelo a seguir para Android. En los dos campos hay uno que destaca, Ubuntu y la versión googlificada, pero la diferencia es que mientras que Ubuntu sigue siendo la punta de lanza del software libre, Google ha aprovechado su liderazgo para cerrar filas entorno a sus servicios en vez de regalarlos al mundo. No hay nada que objetar, las empresas nunca han pretendido ser hermanitas de la caridad, y el “Don’t be evil” que siempre nombramos hace referencia una vez más que Google siempre va a aceptarte amablemente para que utilices lo que ellos con tanto cariño (e intenciones comerciales) han creado.

Si la fragmentación era uno de los problemas de Android era por culpa de que su compatibilidad era muy amplia. Llegar a todos los hardwares y GPUs distintas era una verdadero quebradero de cabeza para Google, de ahí que se pusieran manos a la obra. Los Google Play Services no son sino la versión “Nexus” en el campo del software. 

glauncherexperience

Los servicios de Google cuestan menos que nada. ¿Es posible que estemos justificando que una versión no libre es mejor? Nos gustaría pensar que no, pero la comunidad open source debe ponerse las manos a la obra para darle una vuelta de tuerca a la estrategia que Google presenta. El control de Google no se basa en un iTunes, sino en las diversas apps que ya manejan todo. Un programa de escritorio para manejar Android no tiene sentido, en el momento en que lo que Google controla de tu móvil son sus aplicaciones. ¿Qué fabricante vería con buenos ojos un programa así? De momento tenemos ya separados los propios “Ajustes” y los “Ajustes de Google” y lo que sí tendría sentido es un “Nexus Manager”.

La llegada de los dispositivos “wearables” como las Google Glass puede ser el momento en que Motorola entre en acción. ¿Serán todos estos dispositivos creados bajo la supervisión de Google o también lo licenciarán a otros fabricantes? ¿Se convertirá Android en un sistema “invisible” que esté presente en todos los dispositivos? Las marcas se han adelantado y por ejemplo vemos como el Galaxy Gear solo es compatible con dispositivos Samsung. ¿Dónde queda Google en todo esto? El major peligro para Google es Samsung y su gama Galaxy. Y no solo por la marca coreana, sino por el precedente que pueda crear.

Otro sector del que parece que la estrategia se repite es en los Chromebooks. Fabricantes que utilizan un sistema operativo liviano y de moda y que a la larga se dan cuenta que han invertido demasiado en este y deben empezar a diferenciarse de la competencia. En Google son artistas en conseguir que los demás sean abanderados de su marca.

En definitiva, Android no fue creado para conseguir convencer a todo el mundo de las bondades del software libre, sino para poder ser utilizado por todos. Una filosofía, la de llegar a cuantos más mejor, que sí que es mucho más afín a la Google que conocemos hoy en día. Desde aquí esperamos que el núcleo de Android siga prosperando y los distintos fabricantes apuesten por quien les ha permitido ser parte de las líneas de código que definen uno de los sistemas operativos más importantes de todos los tiempos.

Referencias:

– Articulo original: Google deja atrás a la comunidad open source a medida que evoluciona Android, escrito por Lyzanor el 27 de octubre de 2013 en El Androide Libre.

Netiqueta

 

Netiqueta

Wikipedia: “Netiquette (o netiqueta en su versión castellana) es una palabra derivada del francés étiquette y del inglés net (red) o network. Por extensión, se utiliza también para referirse al conjunto de normas de comportamiento general en Internet. La Netiqueta no es más que una adaptación de las reglas de etiqueta del mundo real a las tecnologías y el ambiente virtual.”

Sigue leyendo

En busca de la innovación

Pongámonos en situación. Abrimos el navegador, visitamos la web de nuestro medio tecnológico favorito (esperemos que sea Xataka) y vemos un artículo sobre un nuevo producto de cierta empresa. Con el titular ya parece bastar. Ese producto, como la inmensa mayoría, no nos dejan precisamente boquiabiertos. Son, aparentemente, más de lo mismo.

La idea es especialmente común últimamente cuando se habla de Apple. La empresa de Cupertino, leemos en muchos medios, ya no innova. Y si no lo hace Apple, creadora de tendencias y de industrias enteras, poca esperanza parece quedar para las demás. Los PCs y portátiles aburren, los tablets y smartphones tampoco sorprenden ya, y pocos son los desarrollos hardware o incluso software que logran llamar nuestra atención. ¿Es que nadie es capaz de innovar?

Innovación incremental, innovación disruptiva

Lo cierto es que el primer problema reside en nuestra concepción de la innovación. Para la mayoría, la innovación prácticamente equivale a la revolución tecnológica, a esa disrupción de la que surgen nuevos segmentos de mercado que acaban atrayendo tanto a empresas tradicionales como a todo tipo de startups.

Pero hay otro tipo de innovación. Más callada, casi silenciosa, y que afecta a los productos y servicios que utilizamos mejorándolos poco a poco. Respondiendo a las necesidades y demandas de los usuarios de esos mismos productos y servicios. O como mucho, introduciendo mejoras que —se intuye— son el siguiente paso en la evolución de dichas soluciones. Una innovación que para muchos es aburrida, pero que tiene casi tanta importancia como la anterior, porque mejora lo que no hace mucho ya nos parecía bueno.

Precisamente esos dos conceptos son los que normalmente se manejan al hablar de innovación, un término que normalmente podríamos dividir en dos grandes grupos. Son, en esencia, los mismos que acabamos de mencionar:

  • Innovación incremental (o sostenida): la filosofía de este tipo de innovaciones es la del refinamiento progresivo, la de las mejoras en las características existentes y la introducción de nuevas características que responden a necesidades y demandas de los clientes, pero también a la propia evolución de la idea original de los creadores del desarrollo.
  • Innovación disruptiva: para muchos, la única y verdadera innovación, que se produce con mucha menor frecuencia y que genera nuevos mercados e industrias que se adaptan a necesidades futuras de los clientes.

La clasificación de unas y otras suele ser clara, pero hay casos que podríamos considerar como intermedios. Lo importante, lo realmente destacable, es que al fin y al cabo ambas son formas de innovar. Ahora bien: ¿qué es necesario para innovar?

Viendo el mundo con los ojos de un niño

Jeff Bezos hablaba recientemente sobre este tema y afirmaba que “sin la voluntad de fracasar no se puede innovar porque la mayoría de las innovaciones no van a funcionar“. Para Bezos existen también dos tipos de innovación: innovación incremental e innovación de cero.

Y según su opinión el 70% del valor que Amazon ha creado para la compañía es gracias a la innovación incremental. Cada proceso es un poquito mejor cada día gracias a la detección de defectos y a su eliminación:

No puedo destacar lo suficiente lo importante que la innovación incremental es. Pero para las grandes innovaciones, debes estar preparado para fracasar. Toda startup se enfrenta a ello. Incluso grandes empresas, como Boeing cuando construyó el 787, se enfrentan a ello.

No solo eso: los innovadores deben estar preparados para ser unos incomprendidos. Eso ocurría con la forma en la que se tomaron las editoriales que los usuarios comenzaran a realizar críticas negativas sobre los libros editados por ellas. Las editoriales le decían a Bezos que “quizás no entiendes cuál es tu negocio. Ganas dinero cuando vendes cosas“. Bezos, por supuesto, no se quedó callado. “No ganamos dinero cuando vendemos cosas. Ganamos dinero cuando ayudamos a la gente a tomar decisiones de compra“. Cada inventor, afirma Bezos, debe ser creativo y tener una actitud similar a la que los niños tienen al enfrentarse al mundo.

Tienes que decirte ‘Espera un segundo. ¿Por qué hago esto de esta manera? ¿Podría ser mejor? ¿Podría ser distinto?’ Ese tipo de curiosidad, esa mente de explorador, ese asombro infantil, es lo que caracteriza a un inventor”.

Innovación, disrupción y percepción del consumidor

En 1997 un profesor de Harvard llamado Clayton Christensen publicaba un libro titulado “The innovator’s dilemma“. Aquel libro explicaba el principio por el cual las empresas que se centran demasiado en las necesidades de sus clientes actuales fracasan al adoptar nuevas tecnologías o modelos de negocio que se adaptarían a las futuras necesidades de esos mismos clientes.

Clayton Christensen, autor de “The innovator’s dilemma”

Sin embargo, el propio Christensen, que para muchos se convirtió en un oráculo de sabiduría, caería víctima de su propia teoría en algunas de sus afirmaciones más polémicas a posteriori. Por ejemplo, en enero de 2006 daba por muerto al iPod, y lo mismo pasaría en junio de 2007, cuando en otra entrevista afirmaba que el iPhone no tendría éxito:

El iPhone es una tecnología sostenible relativa a Nokia. En otras palabras, Apple está dando un salto por delante de la curva sostenible (al construir un teléfono mejor). Pero la predicción de la teoría indica que Apple no tendrá éxito con el iPhone. Han lanzado una innovación que los restantes protagonistas del mercado están muy motivados a superar: no es [realmente] disruptiva. La historia es clara al respecto, y la probabilidad de éxito es limitada.

Como explicaba Ben Thompson en su conocido (y fantástico, no os lo perdáis) blog, Stratechery, el problema es que Christensen tiene en realidad dos teorías de la disrupción, y la segunda, dirigida al mercado de consumo, no es correcta.

Según esa segunda teoría, cuando un nuevo mercado hace su aparición una solución integral suele ser la ganadora de ese segmento. Sin embargo, a medida que ese mercado madura aparecen productos modulares “lo suficientemente buenos”. Aunque esos productos no sean tan buenos como el producto integral, los usuarios no están dispuestos a pagar por ellos y prefieren soluciones quizá menos capaces pero más económicas.

El problema, como afirmaba Thompson, es que la teoría de Christensen está basada en decisiones de compra realizadas por empresas y no por consumidores. Los consumidores, como él indicaba, “no son racionales“. No siempre consideran los beneficios y el coste para elegir la mejor opción. Entran en juego otros muchos factores —sensibilidad hacia la marca o el diseño, publicidad del producto, falta de conocimiento del mismo, atractivo de las gratificaciones instantáneas— que acaban pesando notablemente en esa decisión de compra. Como explica este analista,

No todos los consumidores valoran —o pueden permitirse— lo que Apple tiene que ofrecer. De hecho, una gran mayoría no lo hace. Pero la idea de que Apple va a perder clientes porque Android es “lo suficientemente bueno” y más barato no tiene sentido en el resto de mercados. Más aún: en términos absolutos, el iPhone es significativamente más barato a un terminal ‘suficientemente bueno’ con Android de lo que un BMW lo es a un Toyota, o un bolso de Louis Vuitton lo es a uno de una tienda mucho más convencional.

Esa innovación, en el caso de Apple y del mercado de consumo, se centra en apartados que siguen funcionándole muy bien y que demuestran que la teoría de Christensen no era perfecta. El diseño, —”que no se puede medir, ciertamente es apreciado por los consumidores que son tanto compradores como usuarios“—, se convierte en un factor fundamental. No solo el diseño del hardware, sino también el de su software, que ofrece una experiencia de usuario que es el mejor ejemplo de una innovación incremental —aunque en iOS 7 podríamos hablar de otra cosa, incluso con sus defectos—.

Barreras a la innovación, que no a la invención

Por supuesto, la innovación también tiene numerosos obstáculos a los que enfrentarse. Las grandes empresas y los intereses económicos y políticos son probablemente las mayores culpables de que ciertas innovaciones nunca lleguen al mercado como tales.

Lo explica por ejemplo un artículo en el que se habla de cómo ciertas invenciones y descubrimientos nunca llegan a la fase de producción por todo tipo de motivos. Entre ellos, por ejemplo, por maximizar los bonus a corto plazo y no pensar en el largo plazo.

El economista Joseph Berliner estimó que el director de una mina de carbón podría ganar el 150% de su salario base como bonus si lograra mejorar los objetivos de producción en un 5%. Curiosamente, esa cultura del bonus supondría de hecho un hándicap para ese director, que se conformaría con mejoras incrementales mucho más pequeñas que garantizaran su comodidad o sus objetivos a corto plazo.

La innovación disruptiva económica necesita un sector privado realmente competitivo donde los protagonistas se enfrenten a la amenaza del fracaso y donde la barrera de entrada para nuevas empresas sea mínima. El ‘Gran Estancamiento’ no está producido por la falta de invención o de investigación base. Está producida por la falta de competencia por las grandes empresas y por las excesivas barreras que las nuevas compañías y los pequeños negocios tienen que afrontar en la era neoliberal.

También lo explicaba con acierto el desarrollador web Matt West, que en su blog explicaba cómo esas ideas “revolucionarias” no suelen ser muy bien recibidas por la industria tradicional:

Las innovaciones disruptivas crean mercados que son inicialmente demasiado pequeños para “ser interesantes” para las grandes empresas. Estas empresas tienen una responsabilidad con sus accionistas a la hora de mantener un crecimiento sostenido que no puede satisfacerse con los pequeños retornos iniciales que se obtienen al tratar de seguir mercados emergentes.La incapacidad de las grandes empresas para entrar en esos mercados lo suficientemente pronto les da a otras firmas y startups una ventaja temporal. Las empresas dominantes entrarán en esos mercados inevitablemente cuando se conviertan en “lo suficientemente interesantes”, peto ese tiempo entre la concepción del mercado y la llegada de esas grandes empresas es un valioso recurso para las pequeñas empresas, que pueden usar ese periodo para reforzar sus conocimientos tanto sobre el mercado como sobre la tecnología para lograr establecerse como una marca de nicho.

Lo vemos a menudo en desarrollos de los que hablamos en Xataka y que por razones que no llegamos a conocer —o siquiera a entender— nunca acaban de cristalizar en productos comerciales. Al menos, no a corto plazo. Las investigaciones sobre cierto tipo de energías, los desarrollos en el terreno de la medicina o incluso los descubrimientos que se realizan en terrenos tecnológicos —¿qué pasa con el grafeno?— son algunos de esos ejemplos.

Afortunadamente, la nueva era de la comunicación que Internet ha posibilitado también ha comenzado a derribar esos obstáculos. Los servicios de financiación colectiva, con Kickstarter a la cabeza, son el perfecto ejemplo de como innovaciones de pequeñas empresas o incluso de esa figura del “inventor moderno” comienzan a despuntar con innovaciones —disruptivas o no— que sí interesan a una parte importante de la población.

La innovación incremental es innovación, y funciona

El caso de Apple —perdonadme volver a ella— es perfectamente válido como ejemplo de todo lo que rodea a esta reflexión. Cada nuevo lanzamiento en los últimos años ha sido visto con escepticismo en buena parte de los medios y también por parte de muchos usuarios. Las críticas siempre han sido las mismas. ¿Eso es todo? ¿Dónde está la innovación?

Lo cierto es que ni siquiera Apple es una empresa con innovaciones disruptivas constantes. Ni mucho menos. Sus grandes disrupciones en el mercado —el Mac (1984), el iPod (2000), el iPhone (2007), y el iPad (2010)— cambiaron el mercado para siempre. Crearon nuevos mercados y, en todos los casos, cambiaron las que estaban consideradas como las industrias establecidas.

¿Es incapaz Apple de volver a producir esas disrupciones? Lo cierto es que el ritmo de lanzamiento de esos productos ha sido lento, y esperar una disrupción cada año sería descabellado. Me pregunto si no sería hasta malo. Lo que Apple sí hace bien, y tienen más efectos de los que podría parecer en primera instancia, es aplicar de forma notable la filosofía de la innovación incremental.

Una innovación incremental que, además, acaba marcando a otros muchos mercados y productos. Pasó con el abandono del USB, las disqueteras o las unidades de CD-ROM y DVD-ROM en los Macs. Y volvió a ocurrir con el MacBook Air, que fue ridiculizado (en parte se lo merecía, la primera iteración fue mala) pero que acabó sentando las bases del segmento de los Ultrabooks. Como señalaban en TUAW, esos cambios no suelen ser valorados como se merecen:

A menudo ocurre que los cambios en toda la industria impulsados por Apple no son evidentes desde el principio, pero al poner las cosas en perspectiva, la influencia de Apple es evidente y de largo alcance. La tecnología usada en los productos de Apple no es nueva normalmente, pero su implementación es casi rutinariamente la mejor en su clase. Y es en ese punto en el que los competidores comienzan a darse cuenta y el cambio en toda la industria se hace evidente.

También John Gruber, el célebre cibergurú responsable del blog Daring Fireball, lo resumió muy bien en una frase que ponía de relieve el error que muchos cometen al dar sus primeras impresiones sobre productos novedosos de Apple:

La mayoría de la gente no percibe la innovación porque a menudo esta es incremental.

Esa realidad ese principio y todo lo comentado hasta ahora no solo se aplica a Apple, aunque es un excelente ejemplo: muchas otras empresas de tecnología -si no todas— precisamente han aplicado esas mejoras incrementales, esa innovación gradual, para implantar mejoras que luego se convirtieron en estándares en el mercado.

La innovación incremental también tiene riesgos

Por supuesto, centrarse únicamente en una filosofía en la que refinar productos e innovar de forma incremental tiene riesgos importantes. Lo sufrió en sus carnes el gigante nipón Sony, que en los años 80 pasó de un modelo de innovación disruptiva a uno de innovación incremental en la que refinar productos de éxito y seguir obteniendo el máximo beneficio era el objetivo claro. Eso acabaría condenando a una empresa que perdió parte de su identidad y que solo muchos años después ha logrado recuperar en parte.

Lo explicaba recientemente Hartmut Esslinger, que ayudó a Steve Jobs a establecer el “lenguaje de diseño” que se utilizó en los Macintosh durante más de una década. Según Esslinger, Apple está en peligro de convertirse en la Sony de nuestros días:

La Apple actual sigue teniendo el diseño genial en su núcleo, pero debe mantener su pasión por la innovación de última hornada […] Apple está liderando el mercado, pero debe acelerar su innovación de nuevo.

No es el único que piensa así. O al menos, no es el primero que alerta de los riesgos de la innovación incremental. Peter Thiel y Gary Kasparov —un dúo curioso, desde luego— escribieron hace algo menos de un año un artículo conjunto sobre el tema en el Financial Times en el que también hablaban del tema:

Vivimos en una era demasiado satisfecha con las mejoras incrementales. Nuestra capacidad para hacer cosas básicas como protegernos a nosotros mismos de terremotos o huracanes, de viajar o de extender nuestras expectativas de vida apenas se han incrementado desde los años 60.El progreso real que se produjo en tecnologías de la información desde 1970 hasta 2000 ha enmascarado el relativo estancamiento de campos como la energía, el transporte, el espacio, los materiales, la agricultura o la medicina.

Es un razonamiento interesante, y desde luego el argumento tiene peso. Sin embargo, también es cierto que, como comenta el inversor de capital riesgo Tomasz Tunguz, combinar innovaciones de eficiencia —que teóricamente nunca conducen a cambios transformadores— “puede llevar a habilitar innovaciones que crean nuevas industrias“.

Los ejemplos propuestos por Tunguz son convincentes: la virtualización dio lugar (o impulsó, porque ya existía como tal) a la filosofía Cloud Computing, y algo tan trivial como los mensajes de texto en móviles (SMS) es el sistema de comunicación bancaria por el cual fluye el 33% del producto interior bruto de Kenya, por increíble que parezca.

Puede que muchas empresas estén centrándose en mejoras incrementales que sostengan sus negocios y gran parte de sus beneficios, pero al mismo tiempo los departamentos de investigación y desarrollo de muchas de ellas —de hecho, todas lo deberían hacer— también trabajan de forma paralela en innovaciones disruptivas, o al menos innovaciones incrementales muy importantes para esos negocios.

De nuevo, Apple como ejemplo: el salto de Mac OS X a procesadores x86 se anunció en 2005, pero en realidad llevaba en desarrollo mucho tiempo, del orden de cinco años. Lo dejan claro testimonios como el de John Kullmann, que comenzó a trabajar en un proyecto independiente de Apple en el año 2000. Ese proyecto no era otro que Marklar, que trataba de hacer que Mac OS X pudiera funcionar de forma correcta en procesadores de Intel y en hardware tradicionalmente asociado a los PCs con Windows.

Todos copian a todos

Esas innovaciones incrementales o disruptivas acaban teniendo el mismo efecto: si realmente funcionan, todos los protagonistas del mercado acaban incorporándolas o adaptándolas a sus productos.

Pasó en el mundo del hardware con los smartphones con pantalla táctil, los tablets, los netbooks, o los reproductores MP3. Y pasó en el del software con los entornos de ventanas, las tiendas de aplicaciones, el uso de pestañas en los navegadores o algo tan aparentemente inocuo como el doble click por el que Microsoft obtuvo una patente.

Esa aparición de patentes es otro de los factores colaterales de la innovación. Quien innova trata de obtener ciertos beneficios de ello, y las patentes son un instrumento que trata de proteger la innovación, pero que también es considerada por muchos como un freno a esa misma innovación.

Muchos desarrollos innovadores se frenan por las dudas que genera el uso o aplicación de tecnologías o sistemas similares a otros que ya se han patentado. Las demandas por violación de patentes son antológicas en Estados Unidos, donde aquello de ir al juzgado por estos temas es casi un deporte nacional. Todas las grandes esgrimen ese argumento en numerosas ocasiones, y el debate paralelo es tan intenso o más que el de la propia innovación.

El hecho es que al final todos copian a todos. Si tratamos de observar ese mundo con perspectiva, no obstante, comprobaremos muy pronto que eso no importa tanto. Lo importante es lo buena que sea la copia.

Y lo que precisamente intentan muchas empresas es mejorar una innovación que una competidora había implementado. A bote pronto me sale Siri y la inmediata aparición de Google Now (en mi opinión, claramente superior), pero en el mercado hay otros muchos ejemplos de esa circunstancia.

La innovación solo triunfa si aparece en el momento justo

Pero la innovación se enfrenta a otro cruel enemigo. El tiempo. Muchas invenciones geniales se han quedado en el tintero por haber aparecido demasiado tarde o, quizás, demasiado pronto. En todos los casos tenemos ejemplos en el ámbito tecnológico, pero son especialmente destacables los casos de innovaciones que, como suele decirse, se adelantaron a su tiempo.

El Apple Newton —y dale con la empresa de Cupertino, diréis— es un claro representante de esa categoría. Hace la friolera de 20 años que este precursor de las PDAs apareció en el mercado, pero en aquella época ni el mercado ni los usuarios estaban preparados para ese ingenio.

Durante aquel periodo, por cierto, sucedió algo curioso: no había ningún procesador de bajo consumo que pudiera cumplir con los requisitos de Apple, así que en Cupertino se buscaron las castañas, y junto a Acorn Computers y VLSI Technology formaron la joint venture conocida como Advanced RISC Machines. Apple, que invirtió 2,5 millones de dólares por el 43% de la empresa en 1990, se retiró de la misma en 2002 vendiendo su parte por 800 millones.

Esa venta parecería todo un acierto por parte de los Cupertino sino fuera porque hoy esa empresa es un gigante del diseño de semiconductores. Su nombre, por si no lo habéis adivinado todavía, es el acrónimo de aquella denominación original: ARM.

Sea como fuere, la mayoría de esas innovaciones que se adelantaron a su tiempo acaban teniendo una segunda oportunidad en la que sí aciertan. Pasó con los propios Apple Newton —cuyas bases acabaron siendo similares a las del iPad, por ejemplo— pero también con otras muchas innovaciones que no cuajaron en primer término pero que lo hicieron cuando se dieron los factores adecuados.

Lo explicaba perfectamente Scott Berkun en su libro, “The myths of innovation”, en el que comentaba cómo algunas innovaciones logran cuajar en el mercado de formas sorprendentes, sin una razón evidente o uniforme. Berkun citaba a William Gibson y a su famosa frase “El futuro ya está aquí, solo que desigualmente repartido“. Este escritor continuaba su reflexión con un claro homenaje a los inventores e innovadores olvidados:

¿Quién inventó la luz eléctrica? No, no fue Thomas Edison. Dos inventores menos conocidos, Humphry Davy y Joseph Swan, desarrollaron por su cuenta luces eléctricas funcionales bastante antes que Edison. ¿Creéis que Ford inventó el automóvil? De nuevo os equivocáis. Lamentablemente, el crédito popular para las grandes innovaciones no se decide por parte de los historiadores: está dirigido por los mercados, las circunstancias, y la popularidad, fuerzas no ligadas a la precisión.

La historia y el tiempo muestran su crueldad con la innovación, algo que es más difícil en estos tiempos en el que todo parece estar conectado y plataformas como la citada KickStarter dan oportunidades a esos genios anónimos. Los mismos que buscaban la innovación —ya fuera incremental o disruptiva— y que, como en el segmento de las grandes empresas, jamás han visto una época tan innovadora como la actual.

No dejéis de sorprenderos. La innovación, pequeña o grande, es constante.

Referencias:

En busca de la innovación, escrito por el 24 de octubre de 2013 en Xataka.com

Crear y gestionar contraseñas en Internet

Hoy en día, cualquier usuario que disponga de correo electrónico, use servicios de mensajería instantánea, acceda a páginas financieras, mantenga sitios de fotos, blogs, vídeos o páginas en redes sociales debe utilizar más de una docena de contraseñas distintas. Una solución, ante el problema de tener que recordarlas todas, es utilizar siempre la misma. Sin embargo, se trata de una práctica nada recomendable, ya que el nivel de seguridad requerido no es el mismo para todos los sitios web que se visitan. Para no tener que pensar cada poco tiempo un código alfanumérico diferente, hay programas que facilitan la creación y la gestión de las claves de acceso.

Elegir una contraseña adecuada

No se debe usar la misma contraseña para acceder a la web del banco que para probar una aplicación “online” en fase inicial

No es lo mismo acceder a la web del banco para ver los registros de la cuenta corriente que probar una aplicación “online” en fase inicial que todavía no tiene estabilizados sus sistemas de seguridad y a la cual puede tener acceso cualquier delincuente informático. No se debe usar la misma clave de seguridad en ambos sitios. Para colmo, si se tiende a utilizar una contraseña corta para su mejor memorización, se facilita la tarea a los robots de los ciberdelincuentes.

Los expertos en seguridad recomiendan utilizar una contraseña específica por cada sitio web y elegir ésta en función del nivel de seguridad requerido. Por norma general, cuantos más caracteres incluya una contraseña, mayor nivel de seguridad tiene. La longitud mínima recomendada para una contraseña es de seis caracteres. Sin embargo, una contraseña con ocho o diez caracteres es más recomendable. Por ejemplo, “094F^-dX_R” es una contraseña de 10 caracteres con un nivel alto de seguridad, ya que combina letras, números, mayúsculas y caracteres especiales.

Evaluar el nivel de seguridad

Por norma general, cuantos más caracteres incluya una contraseña mayor nivel de seguridad tiene

Para aquellos usuarios que duden del nivel de eficiencia de las claves que han diseñado para proteger sus datos, hay en la Red numerosos servicios de evaluación de contraseñas. Uno de ellos es The Password Meter, una aplicación “online” que permite conocer el nivel de seguridad de las contraseñas más usadas.

Otro servicio es PasswordBird, que está recomendado para aquellos usuarios que buscan una contraseña fácil de recordar a la hora de acceder a servicios “online” con un nivel medio de seguridad. Para generar la contraseña es necesario responder a tres preguntas: un nombre importante para el usuario, una palabra que le diga algo y una fecha especial. Con esos tres datos principales se genera una contraseña aleatoria que incluye caracteres alfanuméricos (que mezclan letras y números) relacionados con las tres respuestas.

Para contraseñas con un nivel de seguridad mayor existen aplicaciones “online” como MakePassword, Free Password Generator o su adaptación al español, llamada Password.es, que facilitan la creación de contraseñas seguras de una longitud variable, con caracteres alfanuméricos, distinción entre mayúsculas y minúsculas y símbolos especiales. Además, una vez generado el código de forma aleatoria, se indica el nivel de seguridad estimado.

De forma más ilustrativa, existen diversos vídeos en Youtube que nos explican como saber crear una contraseña segura.

Santi Alone nos explica de forma amena un sencillo truco:

Y desde Sophos Iberia, también comparten otra forma de crear una contraseña robusta y fácil de recordar:

Referencias:

Crear y gestionar contraseñas en Internet, escrito por Antonio Delgado en Eroski Consumer.

– Vídeo “¿Contraseñas robustas?“, creado por Santi Alone.

– Vídeo “Como construir contraseñas robustas y seguras“, creado por Sophos Iberia.

Diez consejos para escribir contraseñas seguras

“1234”. Según revela un estudio, esta es la clave más frecuente que la mayoría de usuarios escriben para proteger sus servicios on line, donde guardan datos privados de gran importancia e, incluso, los números de sus cuentas bancarias. Esto significa que cualquier “hacker” puede entrar en gran cantidad de cuentas privadas de plataformas de Internet en pocos segundos. De ahí que en este artículo se señalen algunas pautas para confeccionar contraseñas más seguras.

Cuando se quiere elaborar un poco más las claves, el usuario se basa, hasta de modo inconsciente, en referencias simbólicas como su cumpleaños, el de sus hijos o la fecha de su boda. También de esta forma uno se lo pone fácil a los “hackers”, pues les basta con entrar en sitios como Facebook, ver alguno de estos datos y, a partir de ellos, buscar la combinación de entrada a los servicios personales.

Después de escribir la contraseña es importante revisar que no contenga pistas personales

Respecto al nombre de usuario, los “profesionales en romper claves” saben que casi todo el mundo utiliza el mismo que tiene en su dirección de correo electrónico. Conviene, por lo tanto, ser mucho más inteligentes y blindar lo que ahora se tiene casi como un libro abierto.

  1. Buscar siempre claves que tengan más de ocho dígitos. Cuantos menos caracteres conforme una clave, más fácil es romperla para un pirata informático, puesto que el número de combinaciones posibles son menos. Se consideran “débiles” las combinaciones menores de ocho dígitos, que pueden identificarse con programas generadores de combinaciones aleatorias (llamados robots), lo que se conoce como “la fuerza bruta”.
  2. Nunca utilizar solo números. Aunque se pongan claves de ocho o más dígitos, si se emplean solo cifras, es cuestión de tiempo que un robot encuentre la contraseña y entre en las páginas de la persona.
  3. Tampoco usar solo letras ni palabras. Las letras se pueden combinar con robots hasta dar con la clave. Respecto a las palabras, siempre tienen una conexión simbólica con el subconsciente, por lo que alguien que conozca un poco al usuario puede adivinar las claves si piensa en el nombre de su pareja, sus hijos o sus mascotas.
  4. Optar siempre por combinaciones alfanuméricas. Mezclar letras y números es la solución más segura porque se juntan dos sistemas de clasificación, lo cual amplía mucho las combinaciones. De todos modos, un “hacker” que tenga algunos datos personales sobre el usuario y mucha psicología puede adivinar las claves si no ha habido esmero en confeccionarlas. Hay que ser conscientes de que, de modo automático, siempre se buscan combinaciones fáciles de recordar y relacionadas con personas y fechas importantes. Por lo tanto, después de escribir la contraseña es importante revisar que no contenga pistas personales.
  5. Intercalar signos de teclado. Un truco que permitirá usar letras y números relacionados con la vida del usuario sin peligro es intercalar símbolos como “#”, “$”, “&” o “%” entre los caracteres de la contraseña. Su presencia es mucho más difícil de descubrir para piratas informáticos y robots.
  6. Lo mejor son las claves aleatorias. Si se puede usar un programa generador de claves aleatorias, se estará mucho mejor protegido. La página ClaveSegura ofrece de manera gratuita uno en el que se puede escoger tanto la longitud de la contraseña como la cantidad de caracteres alfanuméricos. Otros servicios como The Password Meter miden el nivel de seguridad de las contraseñas que se confeccionan.
  7. No utilizar la misma contraseña para todo. Parece una obviedad, pero es lo que hace la mayoría. Hay que tener una contraseña distinta para cada servicio. También es recomendable cambiarlas cada cierto tiempo.
  8. Guardar las claves en un documento de texto. Como las claves seguras son muy difíciles, por no decir imposibles, de recordar, lo lógico es tenerlas escritas en un documento de texto, que se usará para almacenar las contraseñas de todos los servicios personales. Cada vez que se entre a un servicio, se tendrá que recurrir a este documento. Puede que sea pesado, pero es más seguro.
  9. Conservar el documento en un lugar seguro. Hay varias opciones para guardar el documento con las claves del usuario. La primera es emplear una memoria USB separada físicamente del ordenador y que solo se enchufa cuando se quiere abrir el documento con la contraseña. Hay que ser consciente de que se puede tener el terminal monitorizado por algún software malicioso (ocurre con mucha más frecuencia de la que se cree) o que alguien puede acceder a través de la conexión wifi si esta no es lo bastante segura.La segunda alternativa es archivar el documento en una copia de seguridad en un servidor de la Red, con protocolos de cifrado de 128 bits o más. Se puede guardar en plataformas diseñadas para tales usos, como Clipperz. Bastará con abrir este servicio y acceder al documento. Eso sí, la contraseña de acceso a Clipperz tiene que ser muy compleja, se debe tener escrita en una libreta, meter en un cajón y saber que si se pierde también se extraviará el resto de claves.
  10. Cuidado con las sesiones abiertas. En muchas ocasiones, los usuarios mantienen abiertas las sesiones de diferentes servicios online en el navegador. De esta forma, en caso de extraviar el ordenador o bien dejarse la sesión abierta en un terminal público o de un tercero, puede poner en peligro su privacidad y seguridad, al facilitar el acceso a su cuenta. Para minimizar este riesgo, una opción recomendable es salir de todos los servicios de uso habitual, ya sean el correo electrónico, las distintas redes sociales donde se participa o las plataformas donde se guardan documentos para sincronizarlos, etc.En caso de disponer de un dispositivo portátil como ordenadores, teléfonos o tabletas, es aconsejable activar un mecanismo de seguridad de acceso al sistema cada vez que el aparato entre en hibernación o se apague la pantalla. De esta manera, si alguien encendiera el dispositivo y el usuario no hubiera activado esta protección, el extraño podría acceder fácilmente a sus servicios con sesiones abiertas.

Referencias:

Diez consejos para escribir contraseñas seguras,  escrito por Jordi Sabaté en Eroski Consumer.

Identidad digital

¿Qué es la Identidad digital?

Cada momento que pasamos en Internet estamos dejando rastro de lo que hacemos, estamos dejando una huella que va representando nuestra identidad en la red. Si visitamos páginas de fotografía dejamos entrever nuestros gustos y aficiones, si entramos a una red social y participamos, lo queramos o no estamos dejando nuestra opinión sobre gran cantidad de aspectos, según nuestros contactos también se nos puede conocer,  si revisamos las páginas por las que navegamos también generan mucha información sobre nosotros.

Sigue leyendo