lunes, 27 de septiembre de 2010

Preparando el nuevo curso (edición dispositivos Apple)



Este viernes, en teoría, empieza el curso 2010-2011 para los estudios de Grado en la UNED, y para mi empieza el segundo año en psicología, bueno, para mi y para todos los que están haciendo el grado, porque este año es el segundo, somos los pioneros (los conejillos de indias, vamos).

Como es el segundo año, de todas formas, voy a hacer una recopilación de recursos que me han sido útiles el año pasado para sacar primero, y que supongo que este año lo serán también.

Me centro en dispositivos Apple porque es lo que conozco, pero si a alguien le interesa, o quiere colaborar con otros recursos distintos, puede hacerlo en los comentarios, gracias!

  • Recursos para el Mac:
    • iWork : Suite ofimática para realizar los trabajos, especialmente útil Numbers para la asignatura de análisis de datos y Pages para todas las demás
    • Openoffice.org para Mac: Algunas asignaturas usan el formato abierto OpenDocument para sus asignaturas (todas deberían hacerlo la verdad), para trabajar con ese formato podemos bajar esta suite que tiene las mismas funcionalidades que iWork, y además es gratuíta
    • Mathtype : Editor de ecuaciones para la asignatura de análisis de datos, puede exportar las ecuaciones a cualquiera de los dos programas anteriores.
    • iTunes: El iTunes es un reproductor de música, si.. y ya viene con el mac OS, si.. pero hay un par de funciones que son bastante recomendables para estudiantes
      • Los podcasts: Aquí hay bastantes podcasts relacionados con la psicología, además de  programas de divulgación muy interesantes donde se tratan temas relacionados. Podemos suscribirnos y recibir de manera gratuita a medida que salgan los programas de Redes de Punset, por ejemplo, o algún programa de radio relacionado.
      • iTunes U : Es una plataforma donde las universidades más importantes de todo el mundo cuelgan material para sus alumnos, normalmente clases grabadas en video, de todo tipo. Esto, para nosotros los estudiantes a distancia es la panacea. ¿A quién no le gustaría recibir una introducción a la psicología del MIT? o ¿unas clases de psicopatología en Berkeley? Pues si, está genial, a mi el curso pasado me ayudaron  bastante un par de videos que encontré ahí. El problema, que está en Inglés, y que la calidad del audio a veces no es muy buena, así que si tu inglés no es muy bueno, olvídate de esta parte. (Por cierto, los de la UNED, ¿podrían ponerse las pilas y colgar algo por aquí no?, solo hay dos universidades españolas, y nada relacionado con lo nuestro :_( )
    • Papers : Un programa para ir guardando artículos de investigación. A mi por lo menos me parece muy interesante ir mirando las fuentes originales que citan en los libros, al menos las que suenen interesantes, o las que mencionan constantemente. Por supuesto también las que vemos como ejemplo en las asignaturas de investigación. Este programa tiene una gran ventaja, y es que además de hacer fácil la búsqueda de los documentos, se sincroniza con el iPad/iPhone.
  • Recursos para el iPad.
    • GoodReader: Lector y organizador de todo tipo de ficheros, PDF, DOC, lo que sea.. Ahí es donde tengo absolutamente todos los apuntes de 1º, y para estudiar es estupendo, con opciones de visualización muy interesantes.
    • iWork : Lo mismo pero para el iPad, Numbers, Pages.. 
    • Papers : Igual que la versión de Mac, pero para llevar ahí los documentos. 
    • iBooks: Para leer los (pocos) ebooks que se pueden encontrar sobre psicología (UNED, ponte las pilas en esto también, queremos los libros de texto en formato ebook!)
    • Wikipanion: Para ir marcando y organizando artículos de Wikipedia.
    • 3D Brain , Nervous System iPad, Grays Anatomy , Gray Anatomy Flash Cards: Todos estos para psicobiología, o para enterarnos de qué nos hablan cuando nombran partes del sistema nervioso, cerebro, etc ...
  • Recursos Web.
Seguramente habré tirado de muchos más sitios y aplicaciones, pero fundamentalmente esto es lo "básico". La verdad, ahora que lo veo así todo junto, me pregunto si podría estudiar sin estar totalmete rodeado de tecnología, y la verdad.. lo dudo mucho!




jueves, 23 de septiembre de 2010

Espacio, memoria y videojuegos



Hace poco, estudiando, me encontré con una de las grandes sorpresas de mi vida, y es que el cerebro no es rígido e inalterable, sino que es plástico, dinámico.

Una de las principales consecuencias de esto es que el cerebro "crece" con nosotros.

El tópico de que "Estudiar te hace crecer como persona" no es tan tópico, es que realmente almacenar conocimientos, procesarlos, en definitiva, hacer trabajar a nuestro coco, hace que se formen nuevas conexiones entre neuronas, que se reorganicen, en definitiva, que nuestro cerebro vaya tomando forma.

Otra consecuencia, es que las conexiones no son permanentes

Esto creo que es mucho más visible, sobre todo en el caso de la memoria. Nosotros almacenamos algo y lo olvidamos, a veces con mucha más facilidad de la que quisiéramos.

Pero como sabemos muy bien los que estudiamos a menudo, contra esa mala memoria crónica que padecemos hay un remedio muy fácil, la repetición. Cada vez que repetimos algo, lo volvemos a almacenar, una y otra vez, hasta que los datos nos son cada vez más familiares.

Como los humanos tenemos la gran ventaja de poder tener pensamientos complejos con bastante flexibilidad, y a voluntad, no necesitamos obligatoriamente realizar repetidamente la acción para refrescarla, a veces simplemente llega con rememorarla. Por ejemplo, podemos leer una vez en una nota de papel un número de teléfono e ir recitándolo mentalmente durante unos minutos para memorizarlo, no necesitamos leerlo continuamente del papel.

Pero esto tiene un peligro, ¿qué pasa si cuando estamos recitando ese número, durante un momento nos despistamos y cambiamos una de las cifras?. Pues que, sin saberlo, estaremos memorizando una información incorrecta, de alguna manera nos estamos engañando a nosotros mismos. Si una hora más tarde alguien nos pregunta cual es el número, podríamos jurar que es el que recordamos, incluso visualizándolo, pero en realidad es nuestra imaginación la que nos ha jugado una mala pasada.

Al hilo de esto hace unos días encontré un experimento llevado a cabo por unos psicólogos que demuestra esto de manera brutal. El experimento en realidad está destinado a comprobar la "ceguera al cambio" es decir, que a veces no recordamos grandes cambios que se producen a nuestro alrededor por "economia de memoria", pero al fin y al cabo el resultado es el mismo, a veces nosotros mismos acabamos engañando a nuestra memoria, y esta, que no es muy espabilada, se cree la última información que le metemos, sea falsa o no.

Pongo el video del experimento, ¡ojo al dato porque es muy bueno!



Todo esto se da más a menudo de lo que pensamos en nuestra vida cotidiana, y algo que concretamente me pasa a mi, y a muchas personas que conozco, es el "efecto nostalgia" en los videojuegos.

Como dice un amigo mío "si te gustaba un juego hace 10 años, no busques un emulador para jugarlo, porque te dejará de gustar para siempre". Esto se cumple el 200% de las veces.

¿Por qué? Pues porque cada vez que recordamos el juego, en realidad, no sólo lo estamos recordando, sino que estamos volviendo a almacenar una copia más del recuerdo, es como cuando recitamos los números en el ejemplo anterior, cada repetición va directa a nuestro almacén de memoria.

Pero claro, entre que los recuerdos no son exactos (dejan mucha información supérflua fuera) y que con el tiempo se van degradando en detalles, tendemos a llenarlos con algo para que tengan sentido completo para nosotros, y claro, ya de llenarlos con algo, ¿por qué no añadirle unos shaders a ese juego tan genial de 8-bits de la NES?, ¿y que tal unos efectos de luz a ese clásico del MSX? Rellenamos con lo que conocemos ahora, con lo que tenemos "fresco", sin importarnos que la tecnología haya avanzado 20 años entretanto.

Como ejemplo, os dejo un video de uno de mis primeros videojuegos, mi recuerdo era que "los gráficos del LOOM eran prácticamente como una película ¿la música? pero si el modo dificil era sólo con música, era celestial, la pieza clave del juego, " etc....




Muchos consideraréis esto como muy evidente, o a lo mejor también os sorprendéis, pero para mi ha sido por una parte, algo que me ha explicado muchas cosas, y por otra una "bajada de burro", quizás porque me eduqué en una sociedad algo pez en el tema, y yo tenía la impresión de que el cerebro era algo bastante más conocido, más perfecto, y más inmutable.

¿Qué sabía yo del cerebro de niño? Pues que es el sitio donde piensas, donde tienes los recuerdos, y que está formado por neuronas, y poco más la verdad.


En cursos superiores se aprenden algunos nombres, zonas del cerebro que hacen tal o cual cosa, pero en realidad nada interesante.

A medida que pasan los años, te das cuenta que es un territorio un poco extraño, sin explorar, por poner un símil, se podría decir que se sabe tanto del cerebro como del espacio.

Es decir, vale, en el espacio hay estrellas, planetas, púlsares, agujeros negros.. sabemos aproximadamente lo que hace cada cosa, pero.. ¿de donde viene todo? ¿conocemos todos los elementos? ¿como se forman? ¿como mueren? .. hay millones de preguntas que no podemos responder.

Seguramente a medida que avancen los medios técnicos, tendremos distintos tipos de instrumentos que nos permitan ver más lejos y mejor, y así iremos descubriendo la gran parte de universo que falta (casi nada, a veces nos olvidamos de lo pequeños, infinitamente pequeños que somos, si no habéis visto nunca el video de Sagan que pongo a continuación, este es el momento, somos insignificantes)


Creo que con el cerebro pasa lo mismo, pero al revés, necesitamos ver más, mejor, pero no más lejos, sino más cerca, más adentro.

Ahora mismo nos parece que eso es un órgano más, un amasijo gris que podemos tocar, golpear, medir a duras penas con algún aparato, por encima, para ver si "hace ruido o no", pero en realidad estamos haciendo nada sino arañando la superficie de lo que tenemos entre los huesos de la cocorota.

En realidad, todo lo que somos está ahí, los que recordamos, cómo actuamos, como trazamos nuestros planes, como manejamos nuestras expectativas, como hablamos, como entendemos nuestro entorno, todas eso está ahí.

Claro, nuestra forma de averiguar eso es totalmente rudimentaria.
"Si se rompe X, la persona deja de hacer Y"
"Si tocamos X, la persona hace Y"
etc..

Pero ¿cómo funciona exactamente todo esto?. La verdad es que hoy en día, no tenemos ni idea, pero creo que esto, el saber cómo funcionamos, será sin duda el gran reto de la humanidad en los próximos años.


lunes, 20 de septiembre de 2010

Las mujeres y la informática | El día de Ada Lovelace



Hoy en día, en España, podríamos decir que vivimos en una sociedad bastante justa. La gente no muere de hambre, existe una cobertura médica y social para todo el mundo, la gente es igual ante la ley independientemente de su raza, sexo, edad, profesión.. claro, hay excepciones, y siempre hay espacio para mejorar, pero realmente los avances en los últimos años (20-30 años) han sido impresionantes.

Sin embargo, aunque yo personalmente creo que no es por un problema de discriminación, al menos no de forma consciente, existen ciertos sectores laborales que aún parecen restringidos, o por lo menos preferentes para uno u otro sexo.

Las programadoras Betty Jean Jennings (izquierda) y Fran Bilas (derecha) operando el ENIAC, primer ordenador electrónico. Cuando la prensa sacaba fotos como estas, intentaban poner a estas y a las otras cuatro programadoras como "chicas anuncio"
De entrada, yo, personalmente, creo que nada incapacita a ninguno de los dos sexos para ejercer ningún trabajo, ninguno, sin excepción. Pero ese no es el tema que nos ocupa.

El caso es que hay ciertos sectores que, inexplicablemente, tienen un número mucho menor de mujeres que de hombres trabajando/estudiando en ellos, sin razón aparente. Y uno de esos sectores es la informática.

¿Por qué? No tengo ni idea.

Y es que en la historia de la informática ha habido desde siempre figuras femeninas con muchísimo peso, sobretodo en el campo de la programación. Pero parece que en cierto punto en la historia las mujeres se han alejado del sector, y aunque ahora mismo existe cierta recuperación los datos siguen siendo bastante extremos. (3.541 son mujeres de 22.224 totales matriculados en Ingeniería Informática, es decir, un 16%, podeis consultar los datos en esta web del Instituto Nacional de Estadística y vereis que los datos son muy parecidos en todas las ramas relacionadas con la informática)
Betty Snyder, programadora, también en el ENIAC

¿Fue quizás que fueron ocultadas por los hombres de sus respectivas épocas? Si, sin duda fue así en alguno de los casos, pero no en todos, y desde luego hoy en día no existe ningún motivo aparente para que se siga manteniendo esta desigualdad tan marcada.

Desde luego, es un tema que me interesa y mucho, y si tengo tiempo investigaré algo más sobre el y prometo poner por aquí lo que vaya descubriendo.

Mientras tanto, desde hace algunos años hay una iniciativa muy curiosa que llevo varios años observando y colaborando con ella (en la medida de lo posible, mencionándolo en las clases por ejemplo).

Esa iniciativa es el Ada Lovelace Day, y consiste en que cada 24 de Marzo blogs de todo el mundo publican artículos sobre mujeres importantes en la historia de la informática, para atraer la atención al hecho que hacía mención antes, a que las mujeres han hecho mucho por la informática, pero por algún motivo, no han sido lo suficientemente reconocidas.

Ada Augusta Byron King,Condesa de Lovelace


El nombre de Ada Lovelace Day lo toma de la que podríamos considerar la primera programadora informática Augusta Ada Byron (hija de Lord Byron, y más tarde Augusta Ada King), y Condesa de Lovelace.

Aunque no llegó a verlo en funcionamiento, ella fue la primera en escribir un algoritmo para la máquina analítica de Charles Babbage (el primer ordenador mecánico), y por lo tanto, el primer antecesor de los primeros programas informáticos.
La máquina analítica de Charles Babbage, desde luego ni se parece a un ordenador moderno, ni era muy "mágica, intuitiva y revolucionaria"


Recomiendo leer su biografía en Wikipedia

Y a todo esto, os estaréis preguntando por qué a día 20 de Septiembre estoy hablando de algo que se celebra el 24 de Marzo :-)

Básicamente por dos motivos
1- Creo que nunca es mal momento para hablar de este tema, que me parece tan intrigante como injusto
y 2- He descubierto que blogger me deja escribir un artículo y programarlo para que se publique automáticamente en un día concreto, y he aprovechado y elegido ya una mujer importante para escribir sobre ella el 24 de Marzo del año que viene ¿Quién será? :-)



sábado, 18 de septiembre de 2010

¿Quién vigila al vigilante?



Si os gusta el mundo del comic (o si habéis visto la película) os sonara la frase del título. Se trata de una cita de Watchmen, un comic en el que se nos plantea la siguiente disyuntiva.. si conseguimos que alguien  vele por nosotros, protegiéndonos del peligro, en este caso los "vigilantes", ¿quién los vigila a ellos? ¿son seres infalibles? ¿que pasa si en algún momento, sus decisiones no son las que esperábamos cuando decidimos dejar nuestra seguridad en sus manos?, resumiendo.. ¿Quién vigila al vigilante?





En la vida real, también tenemos nuestros "vigilantes", el gobierno, que dicta las leyes de nuestro país/región, la policía que las hace cumplir, los inspectores de sanidad, trabajo, hacienda.. cada uno, en su parcela, nos hace cumplir unas normas establecidas para que la sociedad pueda mantenerse, y los ciudadanos podamos convivir en paz.

Mi intención no es entrar a valorar cómo funciona este sistema en la vida "real", pero.. ¿qué pasa en la vida digital? ¿Qué es lo que hacen ahí nuestros vigilantes?

Quizás antes de empezar con eso, hace falta un poco de contexto.

Hoy en día, el medio de comunicación más avanzado y más usado en todo el mundo es Internet. 

La historia de Internet se remonta a unos cuantos ordenadores de uso militar, que unieron dando lugar a una red de ordenadores, llamada ARPANET. Poco después la parte militar (MILNET) fue separada de la red, dejando el resto de la infraestructura disponible para el uso público.

Este es el aspecto que tenía ARPANET en sus origenes



Cada uno de esos cuadraditos eran lo que hoy serían los routers de una red, es decir, un sitio de red distinto (un edificio, una oficina, etc..), y las conexiones que los unían eran desde cables de conexión serie, lineas alquiladas a compañías telefónicas, hasta enlaces por satélite.

El objetivo de todas estas conexiones como veis redundantes y aparentemente caóticas (y aquí quería llegar) era solo uno. La descentralización . La "tradición" de Internet dice que esto era así para permitir que la red pudiera sobrevivir a un ataque nuclear, pero la realidad es que probablemente esto era así porque los enlaces en aquel entonces eran de muy mala calidad y fallaban con bastante frecuencia. Con o sin ataque nuclear, este diseño de red puede, a la perfección permitir que cada parte de la red opere de manera independiente de los demás, sin dependencias, y sin jerarquías.

Con esto en mente, vamos a adelantarnos unos años de crecimiento y situarnos en la Internet actual. Nos encontramos con una gran sorpresa, el diseño de la red es exactamente el mismo que el de los orígenes. 

Bueno, salvando que existen hoy en día muchas más tecnologías, medios, y lo usan millones de personas en vez de cuatro gatos, los datos siguen atravesando la red sin ningún tipo de control ni jerarquía, de forma que cuando enviamos datos a alguien a través de Internet no sabemos exactamente que camino tomarán hacia su destino. 





Pensadlo friamente, esto da un poco de "cosa", enviamos datos a webs donde buscamos información, leemos noticias, compramos bienes o servicios, nos comunicamos con nuestros contactos personales o de trabajo.. y no sólo tenemos que fiarnos de que esas compañías guarden los datos de una manera confiable y profesional (que no siempre es así, porque donde hay humanos, hay tentación y errores, como el caso de la semana pasada en Google ) sino que también tenemos que preocuparnos de que, en cada sitio en donde nuestra información "rebote" para llegar al destino, el dueño del aparato por el que pasa la información no se le de por cotillear, filtrar, eliminar, o modificar nuestra información.

¿Hacemos un experimento? ¿Quieres saber por donde viaja tu información cuando visitas una web?. Es muy facil, ve al menú de inicio-> ejecutar-> escribe "cmd" , acepta, y en la pantalla negra que aparece escribe "tracert " seguido del nombre de la web que quieras comprobar.

Saldrán unas direcciones IP , cada una de ellas es un dispositivo por el pasa que la información que envías .

Existen programas que representar esto de forma visual (como el visualroute, por ejemplo), sobre un mapa, es más por curiosidad que por otra cosa, porque como dije antes, el viaje varía dependiendo del momento, esto es, si repetimos la prueba dentro de media hora, el camino puede ser totalmente distinto.




Pongamos por un momento, que nuestro paquete sale de España para ir a una web en China, y por el camino pasa por Francia y EEUU.

Pues bien, los "vigilantes" (el gobierno) de cada país, tiene una legislación diferente sobre el tráfico de Internet, voy a señalar, para hacernos una idea, un par de características de cada uno de los países que he mencionado antes.

España: En nuestro país existe un sistema de intercepción de las telecomunicaciones llamado SITEL , este sistema permite que todo el tráfico, así como conversaciones de telefonía fija y móvil pueda ser interceptado. Para esto, en principio, es necesaria una orden judicial, pero el acceso de los agentes autorizados a los datos es inmediato y se realiza de forma automática a medida que los datos salen o entran en el proveedor de servicios del "escuchado"

EEUU: EEUU es pionera en sistemas como el SITEL español (de hecho SITEL fue instalado en España con ayuda de los EEUU). El sistema de escuchas estadounidense se llama Echelon , y lleva operando desde los 60, y además ha dado para mucho, sobre todo porque sus usos no se han limitado siempre a lo "legal", sino que se han descubierto casos en el que el sistema era usado para el espionaje industrial, por ejemplo (el informe, si, es del parlamento europeo, que se dio cuenta del tema y tomó medidas para ocultar sus datos). 

Francia: Frenchelon , es el Echelon a la francesa, poco más se puede decir (ah bueno.. quizás sería bueno recordar que hasta hace relativamente poco, el año 2000 aprox, en Francia no se podían usar sistemas de cifrado fuerte para las comunicaciones telemáticas corrientes.. si unimos esto a lo anterior, tenemos un gran "vigilante")

China: En China tenemos lo que llaman el "Golden Shield (escudo dorado)" o Gran Cortafuegos . Básicamente se trata de un sistema por el que el Ministerio de Seguridad Publica chino filtra, censura y controla toda, absolutamente toda la información de las telecomunicaciones del país. Como una imagen habla más que mil palabras, os pondre la conscuencia de este sistema. En la imagen podeis ver una busqueda en google images de "tiananmen" desde fuera de china y otra desde dentro, con el "filtro" aplicado. ¿Que bien eh? :-)





La pregunta es.. nosotros mandamos nuestros datos, y viajando por todo este tejido público/privado de dispositivos y conexiones llega a su destino, pero .. ¿quién vigila entonces a todos estos gobiernos, proveedores de servicio, intermediarios, compañías privadas que pueden, de una manera u otra tener acceso a esos datos?, en definitiva ¿Quien vigila a los vigilantes?

Da que pensar, ¿no?

Hasta la próxima!







*Una nota:
Con todo esto no quiero decir que dejemos de usar Internet, pero si que debemos de tomar conciencia, formarnos, y usarlo responsablemente y de un modo seguro.

Si me permitís un consejo, para vuestra vida digital, cifrad siempre vuestros datos: en las comunicaciones via web, en los datos locales, en los accesos remotos, vamos.. en todo, hay muchísimos métodos y muchísimas opciones, pero aseguraos antes de manejar o enviar información confidencial que vuestros datos no van a poder ser vistos por ningún watchmen!




jueves, 16 de septiembre de 2010

Flatland



Ayer, mientras escribía el artículo sobre el futuro , hablaba de Michio Kaku, en su faceta de prospector, que en realidad es la que más se puede entender, pero en realidad es un gran divulgador, y un gran científico teórico.

En concreto este hombre se dedica, nada más y nada menos que a intentar encontrar un modelo válido para una "teoría de todo", en concreto es uno de los personajes que están trabajando en la teoría de cuerdas.

A mi, personalmente, estas teorías me asombran, pero también me inquietan y me marean terriblemente, porque manejan conceptos que son dificilmente explicables o demostrables, y aunque llegues a comprender las complicadas fórmulas que demuestran los diferentes sucesos del universo, sigue siendo algo que nuestro cerebro no es capaz de procesar, al menos correctamente.

Uno de los conceptos más inquietantes de la teoría de cuerdas es el tema de las dimensiones, nosotros conocemos 3 dimensiones, x, y, z, arriba-abajo, izquierda-derecha,cerca-lejos.



Podemos entender espacios de 2 dimensiones (un papel), de 1 dimension (una linea), incluso, con un poco de esfuerzo, y aplicando el mismo concepto de 0 dimensiones (un punto)

El problema es que las teorías de cuerdas manejan no menos, sino mas de 3 dimensiones.

Existen teorías de 10, 11, 26 dimensiones.. pero .. ¿¿cómo se come eso??

Yo en una de estas lecturas peregrinas de dichas teorías, encontré, creo recordar que en un foro para nada relacionado con la física (por casualidad, vamos) un video que me hizo entender eso para siempre, y que, la verdad, y aunque parezca exagerado, cambió mi concepción del mundo, del universo, y me permitió abrirme a muchas posibilidades que antes no consideraba, por desconocimiento (o por soberbia, porque a veces pensamos que lo sabemos todo) y ahora siempre estoy dispuesto a valorar.

El video es una adaptación "para niños" de una novela llamada "Flatland", en donde un ser de 3 dimensiones intenta explicarle a un ser de dos dimensiones su verdadera condición bidimensional. Dejo por aqui una versión en castellano



Desde que vi el video, siempre me quedé con la espinita de leerme el libro, que además está disponible para su lectura de forma gratuita porque se escribió en (sorprendentemente) 1884!!! nada más y nada menos.

Al fin, hoy lo he leido, y tengo que decir que es una lectura imprescindible.  Además de plantear de muchas maneras diferentes el tema de las dimensiones, trata también los problemas de la igualdad, la discriminación, de la religión, de las normas sociales, las costumbres y las leyes, el conformismo.... todo ello, claro, desde el punto de vista de "otra dimensión"

Dejo un enlace al libro en epub, que es la versión que me he leído yo, por si a alguien le interesa

Libro de Flatland

También dejo el enlace de la web de un lector de ePub, para leerlo en un ordenador

Lector de epub Stanza


miércoles, 15 de septiembre de 2010

El Futuro



Una de las cosas que más me gusta cuando estoy tomando algo con los amigos en un bar es la prospección tecnológica.

Si, es así de duro, a alguna gente le gusta hablar de fútbol, a otros de política, y a nosotros nos gusta hablar sobre cómo podrá evolucionar la tecnología en los próximos años, decenios, milenios..

Claro, hay gente que se dedica a esto de manera profesional, nosotros somos unos simples aficcionados, sobre todo porque no tenemos las bases teóricas lo suficientemente sólidas para entender el estado actual de algunos campos de la ciencia.

Un ejemplo de un prospector profesional, es el físico teórico Michio Kaku (recomiendo ver el enlace a wikipedia si no lo conocéis), cuyo último libro Física de lo imposible (que he leido hace unos meses y es una maravilla) predice, desde el punto de vista de la física y de los últimos avances en los medios tecnológicos, en cuanto tiempo se podrán construir cosas como campos de fuerza, capas de invisibilidad, máquinas de viajar en el tiempo.. etc etc

Pero yo, como decía antes, no puedo ser tan preciso en mis predicciones, ni tengo tantos datos en mi coco, pero sin embargo en el campo de la tecnología, en concreto de la informática, predecir cambios es algo que me divierte, y en general, no me ha ido nada mal en las predicciones hasta ahora.

Hace poco Microsoft publicó un video sobre eso precisamente, sobre cómo ven ellos el futuro de la informática, y el resultado es este.




La verdad es que es impresionante, pero ¿se acercará esto a la realidad de nuestro futuro?

Yo personalmente creo que es bastante posible que muchas de las posibilidades que hay en el video se materialicen y tengan éxito en muy poco tiempo. Concretamente veo muy posibles en los siguientes 5-10 años:

  •  Pantallas semitransparentes (esto combinado con las aplicaciones de realidad aumentada que ya existen puede llegar a ser la bomba)
  • Pantallas flexibles, tipo papel, para reemplazar definitivamente los soportes físicos de lectura
  • Sistemas de posicionamiento integrados en interiores y exteriores

Algunas compañías comparten esta visión, por ejemplo, aqui tenemos un portatil con una pantalla translúcida




Y.. ¿que os parece este video de HP sobre lo de la realidad aumentada en pantallas semitransparentes?



¿Lejano? no lo creo, en realidad la tecnología ya existe, las pantallas ya se hacen, el GPS ya se usa en todos los dispositivos, móviles y otros dispositivos cuentan con giróscopos que captan a la perfeccion el movimiento del dispositivo, etc.. ¿qué falta? pues yo creo que tiempo, muy poco tiempo.

¿Qué pensais vosotros?


martes, 14 de septiembre de 2010

Los anuncios de Apple para el iPhone 4



Mientras escribía el anterior post, me llamó poderosamente la atención el anuncio del Facetime. Para quien no lo haya visto antes, me refiero a este.



La verdad es que fue casualidad, pero ese mismo día vi hasta 3 anuncios distintos de iPhone 4 de diferentes compañías en la TV, y me sorprendieron igualmente (sobre todo verlos en la TV Española, ¿sera que ahora con 2 Apple stores recién abiertas ya somos un mercado prioritario?)

Son anuncios "muy Apple", apelando a la parte humana de la tecnología, a su uso cotidiano, a la accesibilidad, la verdad es que la gente que trabaja en marketing en esa empresa se gana su sueldo. ¿Por qué no harán más publicidad así en vez de tanto anuncio con chistes fáciles?.

Os dejo con los que he encontrado por youtube. (2 son de España, los otros todavia no que yo sepa)
Un saludo!













lunes, 13 de septiembre de 2010

Facetime (II)




Hoy en día no es demasiado complicado hacerse con un sistema capaz de realizar una videoconferencia, es cierto. 


Puedo abrir la carpeta de aplicaciones en mi ordenador, y sin buscar demasiado puedo encontrar hasta cuatro aplicaciones distintas que cumplen esa función entre otras. Y en otros dispositivos también, sin rebuscar demasiado puedo encontrar bastantes modelos de móvil no demasiado caros ni modernos que son capaces de realizar videoconferencia desde hace ya unos años.


Sin embargo, no hay demasiada gente que conozca, y mucha menos que use, este servicio. ¿Por qué? 


Bueno, quizás viendo algunos de estos sistemas de videoconferencia un poco más en detalle encontremos la respuesta.


LA VIDEOCONFERENCIA EN EL ORDENADOR


El primer programa de ordenador (Mac) capaz de realizar videoconferencias, fue el Cu-SeeMe, recomiendo ver su artículo en Wikipedia para saber más de este interesante programa, casi tan antiguo como la web misma.


Claro que, como ya comenté en el post anterior, no fue hasta hace muy muy poco tiempo (en según que sitios aún ni siquiera ahora “es”) que las infraestructuras de comunicaciones fueron capaces de soportar el ancho de banda necesario para el video y el audio de una videoconferencia, y mucho menos ocupando una parte considerable de la visión en la pantalla. 


Si juntamos eso con que las webcam eran inexistentes en aquella época y las que había eranmalas y caras.. el resultado del programa, en su origen, fue este:



Si nos fijamos en las imágenes, están transfiriendo video a 9fps (lo normal es >30fps ) usando 60/103Kbps, es decir, tampoco valía para todo el mundo, pues en aquel entonces para esas velocidades se necesitaría una RDSI como mínimo, que no era algo precisamente asequible..


Total, los inicios de la videoconferencia fueron totalmente anecdóticos, y sólo sirvieron para hacernos una idea de lo que se podría hacer en el futuro, cuando la tecnología lo soportara. ¿Y cuándo es eso?, pues eso es .. ahora mismo!.


Voy a poner un solo ejemplo de videoconferencia en el escritorio, y es Skype . No pongo mas para no extenderme demasiado, y porque es el prototipo de servicio de videoconferencia, lo mismo que voy a comentar sobre esto se aplicaría a msn, etc.. salvo en la calidad, tema en el que de momento Skype gana por goleada a sus competidores.


Skype originalmente era un programa de voz sobre IP, que evolucionó hacia una plataforma de comunicación de audio/video (una evolución totalmente natural). Actualmente permite conversaciones múltiples de audio (y de video en la versión beta), y conversaciones de video en HD. ¿Qué quiere decir esto?.


Pues que si disponemos del equipo adecuado (una cámara HD de 60 eurillos, como esta , y una conexión a internet de al menos 1,5Mbps de subida, como esta podemos hacer una videoconferencia como esta, con calidad FullHD (podríamos ponerla en una pantalla plana a pantalla completa con una buena calidad de imagen, y por supuesto, en el monitor, etc). Esto permite hacer cosas como la siguiente, integrar skype en un dispositivo y ponerlo a funcionar de manera independiente tal que así, encima de nuestra TV, mola eh!




¿Qué pegas tiene Skype entonces? ¿Por qué no acaba de calar en la sociedad?


Bueno, decir que Skype no tiene éxito es bastante aventurado, Skype cuenta con (atención) 521 millones de cuentas de usuario, aproximadamente 1/10 de estas son activas, es decir, usan el programa a diario, pero aún asi, son números impresionantes.


El problema es que Skype es un mercado exclusivo, es decir, todos esos usuarios dependen en exclusiva de una compañía. Esto en principio pasa con muchas otras cosas, pero cuando se trata de un servicio de comunicaciones que pretendemos sea global, la exclusividad del fabricante choca con una par de cosas.


Lo primero y más importante es el protocolo que Skype usa para realizar las llamadas, es un protocolo propietario y “secreto” de la compañía, es decir, ninguna otra compañía puede hacer productos interoperables, lo que se traduce en que o bien existe una aplicación de Skype oficial para nuestro dispositivo, o estamos aislados, por mucha capacidad de videoconferencia que tengamos. (*Un pequeño apunte a esto, el protocolo ha sido en repetidas ocasiones examinado y replicado mediante ingeniería inversa , pero acciones legales de la compañía han hecho desistir de usar el protocolo a las empresas que usaron las copias, como el reciente caso de Fring que dejó sin videoconferencia a los usuarios del Evo 4G hasta que apareció Qik para Android)


Otras implicaciones de que el protocolo y el programa sean privativos es que no puede existir ningún tipo de software libre que soporte el protocolo, aunque esto no parece importarle a los felices usuarios de Android ;-) (lo siento, no podía resistirlo)


Existen otras soluciones de videoconferencia más o menos existosas como iChat, la videoconferencia de Google, MSN Messenger, etc.. pero todas pecan en mayor o menor medida de esta no-interoperabilidad.


LA VIDEOCONFERENCIA DE LOS MÓVILES


La videoconferencia en dispositivos móviles empieza a mediados de los 2000, coincidiendo con el despliegue de UMTS(aunque existen antecedentes anteriores, como dije en el otro artículo me voy a centrar en la videoconferencia IP, que es la que nos podemos pagar los internautas “de a pie”). Antes de esto, la calidad de las redes de datos hacían prácticamente imposible la videoconferencia de calidad.


Creo que estos dispositivos han fracasado todos básicamente por dos motivos: la falta de integración y/o la mala calidad de la llamada. Voy a poner un ejemplo de cada:
  • La mala integración:
El HTC Evo es un móvil estupendo, incluso a los acérrimos defensores del iPhone se fue la mirada hacia este terminal, tanto por sus características como por su diseño. Pongo un enlace a un review de xataka, donde se ven algunas de sus características mas destacables
Con una cámara frontal de 1.3MP precisamente orientada a la videoconferencia, este móvil
era una gran oportunidad para la videoconferencia.. ¿cuál es la pega entonces?


Para realizar una videollamada tenemos varias opciones, pero ninguna funciona de forma
nativa, todas dependen de aplicaciones externas.


El depender de una aplicación tiene algunas pegas más o menos graves, por ejemplo:
  • Si la aplicación deja de desarrollarse o la compañía cambia, hay que cambiar con ella.
  • Si la compañía cambia las condiciones de uso, hay que aceptarlas o dejar de usarla.
  • La aplicación puede no usar disponible para todos los dispositivos
  • Normalmente cada compañía usa su red/protocolo no interoperable con la competencia.
  • Los dos extremos de la llamada necesitan tener la aplicación corriendo en el dispositivo.
En el momento de escribir este artículo, parece que la opción preferida es Qik , vemos 
como se cumplen algunos de los puntos anteriores
  • Para que la llamada funcione hay que tener abierta la aplicacion Qik (o en segundo plano)
  • Dependemos de la red de Qik
  • Utiliza un protocolo “secreto” que no es interoperable con otras formas de videoconferencia
  • Solo funciona con determinados terminales en los que existe la aplicación (Androids con cámara frontal)
Aún así, la calidad de la videoconferencia no está mal (salvando cierta latencia, en la que me imagino que tendrá que ver la intervención de los servidores de Qik en la comunicación.. ). Pongo un video de un prueba entre dos HTC 4G.



  • La mala calidad
Mencioné antes que otro factor determinante en la no proliferación de la videoconferencia en los móviles es la mala calidad. Esto es mucho más evidente.

Los fabricantes no se han molestado hasta esta ultimísima generación de teléfonos en poner cámaras decentes para realizar videoconferencia, esto también se debe a que las pantallas hasta hace poco eran demasiado malas y no necesitaban una gran resolución, y a que a la gente no le interesaba demasiado la videoconferencia, así que era un “extra” que estaba ahí por estar.. pero claro, ¿a la gente no le interesaba por la calidad quizás? ¿qué fue antes el huevo o la gallina?


Pongo un ejemplo de un par de modelos pre-pantallas-decentes-camaras-decentes (si parecen gifs de publicidad! con ese tamaño y esa calidad! xD)




De todas formas, el problema de la integración si lo tenían solucionado, pero.. ¿no hay algo que combine las dos cosas?


Pues si!!!, al menos a mi parecer, por fin llegamos a ...


FACETIME


Igual que en el otro post, hemos llegado a varios factores que creo que harán de Facetime un éxito con respecto a la actual videoconferencia. Si el otro día hablaba de la oportunidad, y del momento. Hoy llegamos a la integración con los dispositivos, la calidad, y la interoperabilidad. Voy comentándolos uno por uno:
  • La interoperabilidad.
Apple apuesta por los formatos abiertos, esto es un hecho. Es cierto que como compañía se agarra a su hardware y software con restricciones, pero en los formatos siempre ha intentado mantener una neutralidad muy de agradecer a la hora de conseguir interoperar con otros sistemas. Esto no ha sido una excepción.


Facetime es un nombre comercial que engloba un conjunto de tecnologías, todas ellas abiertas, standard y libres de patentes.

H.264 y AAC – para codificar video y audio
SIP – para la señalización 
STUN, TURN y ICE – para “llevarse bien” con Firewalls y NAT
RTP y SRTP – para transportar los streams de VoIP con baja latencia y con posibilidad de cifrado


Normalmente esto no le importa demasiado al usuario final, pero tiene una implicación muy importante, y es que, aunque todavía no existan, cualquier fabricante puede implementar Facetime en sus dispositivos, es decir, esto no es una exclusiva de Apple, esto posibilita que cualquier software/hardware se pueda comunicar con los dispositivos de Apple que ya pueden usar Facetime (de momento sólo el iPhone 4 y el iPod touch nuevo)


Y creo que así va a ser, porque es un conjunto de tecnologías que funciona bien, que no tiene costes adicionales para los fabricantes, que tienen una sólida base de usuarios potenciales con los que comunicarse, y porque el modelo que tenían hasta ahora no ha funcionado demasiado bien.
  • La calidad
Que Facetime de momento solo esté disponible en los dos dispositivos con la Retina Display de Apple (la pantalla de mejor resolución del mercado) seguramente influye bastante, pero el resultado final es bastante impresionante, pongo un video para poder comparar con los anteriores.(Sé que es un poco injusto poner el pedazo de anuncio de Apple para comparar, pero los resultados son los mismos en los tests hechos por frikis varios en la red, podeis buscar un poco en youtube y lo vereis :) al menos este es mas bonito jeje)




Esto es posible ahora gracias a las redes de comunicaciones existentes, es cierto, es muy injusto para las compañías que antes han hecho intentos de videoconferencia.. pero como dije antes, la oportunidad es un factor más!


-La integración con el dispositivo.


Para terminar, quiero poner un video (el último ya!) de como funciona Facetime. La diferencia es considerable.Llamo a fulanito.. ¿llamada normal o videollamada?.. estoy en una llamada normal, ¿quiero cambiar? le doy a un boton y listo... estoy en modo vertical y ¿quiero cambiar a horizontal? giro el teléfono y listo, quiero cambiar de la cámara frontal a la trasera?.. pulso un botón y..


Bueno, creo que la idea se entiende, y además incluso el más fandroid de mis amigos podría reconocer sin problemas que Apple es inigualable en cuanto a integración hardware/software se refiere. Pero bueno, aquí está el ejemplo de Facetime.




FINALIZANDO


Vaya rollo me he soltado al final :-). Pero bueno, espero que se haya entendido el por qué creo que Facetime no es lo mismo que decir simplemente “videoconferencia” y por qué creo que va a triunfar sobre sus antecesores. Es cierto, no es que hayan sido los primeros, no es que se hayan sacado todo de la manga, pero si creo que son los primeros en integrar todo lo necesario para la videoconferencia, de una forma sencilla, de calidad, y en el momento justo.


Espero no haber aburrido mucho, y hasta la próxima!


Facetime (I)



Últimamente, cada vez que digo “pues no está mal que se pueda hacer Facetime en este dispositivo”, mis amigos me recuerdan entre risitas que Facetime es algo así como la versión pija de la videoconferencia, que ha existido desde hace años, pero.. ¿es esto cierto?

Hace ya algún tiempo que la videoconferencia está entre nosotros. Creo que la primera vez que vi el concepto de videoconferencia fue hace ya 21 años (casi nada!) en la película “Regreso al futuro II”


¿Recordáis esta escena? En ella el protagonista Marty McFly habla con su colega Needles a través de la una televisión plana que ocupa media pared. Cualquiera de estos conceptos resultaban entonces lo suficientemente extraños como para introducirlos en una película de ciencia ficción y dejar al público impresionado y confundido (a la altura del patinete volador!).
Quién podría haber imaginado en ese momento que poco después ese mismo año Philips introduciría en el mercado la primera TV plana y dos años después la videoconferencia basada en IP permitiría que toda persona con acceso a Internet pudiera mantener una conversación con video como la de la imagen -vale.. con algo menos de resolución “quizás”- a un coste razonablemente bajo.
Y sin embargo, parece que este concepto nunca ha terminado de arrancar. ¿Por qué?
Supongo que se han escrito ríos de tinta sobre este asunto, pero yo me voy a arriesgar y dar mi opinión personal, y el por qué creo que Facetime con toda probabilidad hará despegar esta tecnología de una vez por todas.
¿QUÉ ENTENDEMOS POR VIDEOCONFERENCIA? ¿Y POR VIDEOCONFERENCIA “DE CALIDAD”?
Aunque existen antecedentes en la década de los 80, e incluso antes, hablar de videoconferencia hoy en día implica pensar en una, o normalmente un conjunto de tecnologías que nos permitan encapsular datos de video y audio en paquetes de datos enrutables a través de una red de comunicaciones IP (como por ejemplo Internet). Es decir, el objetivo de la videoconferencia, como pasa con la Voz sobre IP, es aprovechar una infraestructura pública existente y barata para que sus usuarios puedan mandar sus conversaciones de voz y video como datos a través de esa red.
El objetivo de esta videoconferencia es el mismo que el de una llamada telefónica, el poder comunicarnos a distancia con una o varias personas.
En cuanto a sus requisitos, podríamos establecer un par de condiciones básicas para que una videoconferencia se considere de calidad:
  • -La calidad del audio y la definición del video deben ser aceptables para el dispositivo donde visualizamos la llamada.
  • -La comunicación de los datos no debe añadir demasiado retraso al flujo de audio/video, todos sabemos el efecto totalmente extraño que produce una llamada o video donde el emisor habla y el receptor lo escucha segundos después y contesta otro ratito después, es totalmente antinatural.
Estas dos condiciones, la calidad y el retraso en las comunicaciones, creo que han sido el caballo de batalla de la videoconferencia hasta hace muy poco tiempo, pongo un ejemplo de cada.

Un servicio que envía audio de calidad a través de internet, Spotify (si no lo habéis probado aún, este es el momento!), es capaz de encapsular audio de calidad enviando 160 Kbit/s, o lo que es lo mismo 0.16 Mbps
Por otra parte, un conocido servicio de alojamiento de vídeos, Youtube , encapsula el video, dependiendo de la calidad, usando desde 0.25Mbps hasta 5Mbps. Lógicamente, cuanto mayor es la cantidad de datos enviados en menos tiempo, mayor es la calidad del video. Un ejemplo.


He puesto el video intencionadamente grande para que se note la diferencia. Podéis elegir diferentes calidades pulsando sobre el botón 360p en la parte baja del video, con esa calidad, estaríamos recibiendo video a 0.5Mbps, y con la más alta para este video, 720p, lo estaríamos recibiendo a 2Mbps.

Teniendo en cuenta que las conexiones a Internet modernas tienen velocidades mínimas de entre 1Mbps y 20Mbps (los “megas” que nos venden por la tele es precisamente esto), aparentemente podríamos, en el peor de los casos, recibir video con una calidad aceptable en la peor de las conexiones, aun sumándole los 0.16Mbps del audio (quedaría 0.16+0.5Mbps = 0.66 Mbps). ¿Valdría esto para hacer una videoconferencia con esta calidad? Pues NO, y aquí está el problema 1, el de la calidad.


Cuando compramos nuestra conexión a Internet, los Mbps que nos venden en letras grandes en la publicidad, son de descarga, es decir, en sentido red-> usuario. Cuando vemos un video en youtube o escuchamos una canción en spotify estamos usando esa velocidad, pues los datos vienen en ese sentido. 


Pero en una videoconferencia la cosa cambia, necesitamos, además de la velocidad de bajada, velocidad de subida!, es decir, necesitamos enviar datos a nuestro interlocutor, ademas de al contrario!. Por lo tanto la calidad de la videoconferencia va a venir determinada, no por los “megas” sino por la velocidad de subida menor de los interlocutores. A modo de referencia, y para no liarme más con el tema, dejo una tabla con las velocidades de subida de las compañías y ofertas más conocidas de este país, y juzgad vosotros mismos que calidad se podrá tener en una videoconferencia con “esto”.


Movistar Kit ADSL 6Mb: 0.64 Mbps
Movistar Kit ADSL 6Mb: 0.8 Mbps
Jazztel 20Mb + Anexo M: hasta 1.5 Mbps dependiendo de la distancia
ADSL Ya.com 10Mb: Hasta 1Mbps
Mundo-R (Galicia) 15 Mb: 1.5 Mbps
Mundo-R (Galicia) 100 Mb: 5 Mbps
Ono 6Mb: 0.3Mbps
Ono 50Mb: 3Mbps


Como veis, la oferta varía considerablemente de una compañía y producto a otro, pero ya sin meternos en precios, que en la mayoría de los casos son desproporcionados, se ve claramente que aún falta bastante infraestructura para poder realizar videollamadas con alta calidad sin problemas, en la mayoría de los casos estaremos usando el límite de nuestra conexión de subida para conseguir la calidad más baja posible.


En cuanto al retardo, el segundo parámetro crítico para las llamadas, esto no es algo que podamos comprobar cuando compramos nuestra conexión a Internet, puesto que los operadores no ofrecen datos acerca del retardo medio en sus redes (supongo que no reportaría demasiado beneficio a los ISP, puesto que no es algo fácil de explicar a los clientes).


Como esos datos no son públicos, enlazo un artículo de adslzone sobre un estudio hecho utilizando la gente que hace su test de velocidad como muestra. Seguramente no es fiel 100% a la realidad, pero nos da una idea de los tiempos medios que se manejan.


La latencia, como veis, para conexiones residenciales está sobre los 0.065 segundos, lo cual, afortunadamente, no está tan mal como hace unos años


Pero claro, cuando hablamos de dispositivos móviles (3g) estos datos tan alentadores se ponen un poco más feos, en algunos casos alcanzando más del doble de la peor latencia de residencial. Este estudio de las conexiones 3g es gracias a bandaancha.eu .


Así que aquí estamos, en el año 2010 y con una infraestructura que aunque “casi”, apenas es capaz de soportar la videoconferencia, y menos de calidad, así que, después de todo este rollazo, hemos llegado al primer motivo, yo creo que fundamental, para que la videoconferencia no haya despegado anteriormente. 


Si hoy en día, con lo que hemos avanzado en infraestructuras y tecnología (no solo en hardware, si no en software, pero más de esto en el próximo artículo..), estamos como estamos, ¿cómo diablos se esperaba la gente que la videoconferencia llegara a todos los rincones del mundo? Casi nadie está dispuesto a ver a su interlocutor como un conjunto de píxeles desdibujados que le responden segundos después de haber formulado la pregunta, al menos no a no ser que sea un caso de extrema necesidad! (esto si que ha tenido éxito en caso de separaciones por viajes, trabajo, etc...), pero para un uso cotidiano? jamás!.


Pero esto cambia rápido, y como vemos las tecnologías están “en su punto”, creo que las empresas que inviertan en esto en este preciso momento tendrán mucho que ganar.


¿Y QUE PINTA FACETIME EN TODO ESTO?


Al final no he hablado mucho de facetime en este post, pero bueno, mi idea era precisamente hacer una serie de artículos para introducir la tecnología en su contexto, sin simplificar y hacer un “facetime vs videoconferencia”. Pero creo que al menos he llegado al que yo creo que es el primer punto a favor de facetime, la oportunidad.


Facetime despega en el momento exacto en el que las redes domésticas, el hardware y el software están preparados y lo suficientemente extendidos como para que todo el mundo pueda realizar videoconferencias de calidad hoy o en los próximos meses.


Apple ya tiene algunas experiencias en cuanto a la oportunidad a la hora de sacar un producto, y no todas especialmente buenas. 


¿Quién no recuerda el newton? ese iPad de los 90, que simplemente fracasó por salir en el momento inadecuado. Creo que con la videoconferencia pasará lo mismo, es una idea que nos lleva rondando a todos mucho tiempo, pero que necesita un cúmulo de factores a su favor para que despegue.


¿WHAT’S NEXT?


En el próximo post, que haré dentro de unos días supongo, intentaré repasar antecedentes y muestras actuales de sistemas de videoconferencia concretos, y ver sus debilidades y fortalezas. A ver si encontramos el ¿por qué está ahí pero nadie lo usa?


Un saludo!