El paréntesis de Gutenberg

A través de Filosofitis, uno de mis blogs de cabecera que cultiva Alejandro Piscitelli, me entero de un proyecto que desarrolla la University of Southern Denmark de la mano de Thomas Pettitt con este interesante título: “El paréntesis de Gutenberg”.

Algo atractivo en este tipo de propuestas, más allá de que puedan o no ser factibles, es que nos ponen a reflexionar sobre una serie de cosas que de otro modo no hubiésemos pensado. El planteamiento es simple, la idea, compleja. Una vez que situamos al hombre moderno (¿nosotros?) en la historia del universo, más o menos unos 100 mil años de historia, ubicamos la era de la imprenta en un lapso de 500 años de esa historia, de manera tal que, si es verdad que los nuevos medios de comunicación que se están masificando desde finales del siglo pasado, apalancados por Internet y todo lo que esto implica, están re-creando o reviviendo la cultural oral, se podría pensar que estos 500 años de omnipresente cultura escrita no son más que un gran paréntesis en la cultura humana. Identifico en la tesis dos cosas interesantísimas, primero, la desacralización de la cultura escrita, segundo, que es precisamente ahora cuando se está rompiendo el paradigma.

Recomiendo ampliamente la lectura del revelador post de Piscitelli, y una replica que él mismo recomienda, de Joaquín Rodriguez.


Carlos Rondón Ávila
http://nodnor.com

Posted via email from rondon’s posterous | Comment »

inurl:nodnor.com privacidad -facebook

Una gran parte de la seguridad informática no evoluciona necesariamente con el nacimiento o actualización de nuevos productos y servicios; muchos de los nuevos vectores de ataque, son producto del ingenio, la creatividad, la curiosidad, y el análisis exhaustivo sobre herramientas o servicios que ya tienen tiempo funcionando. Por esta razón es muy normal observar cómo a estos productos que ya tenían tiempo circulando se les descubren nuevas vulnerabilidades que antes, habían pasado desapercibidas.

Tal es el caso de un experimento organizado por le EEF (Electronic Frontier Fundations) llamado Panopticlick. El objetivo es muy sencillo, tratar de recopilar la mayor cantidad de datos a través del browser de cada usuario; ya es sabido que en los datos que se comparten a través del HTML se puede determinar la IP del navegante, el sistema operativo, la resolución de la pantalla, el idioma, y otros datos de usuario. Esto para mucha gente puede parecer común, normal y hasta inofensivo (¿?), la novedad en este experimento es que ellos agregaron información adicional que también es compartida a través de los mismos protocolos: Los plugins que la mayoría de la gente instala en sus browser casi para cualquier cosa, configuración de los módulos de javascript y versiones de flash, entre otros. Con toda la información junta y usando un sistema de información que maneja y clasifica estos datos, lograron establecer que de 1 millón de visitas, el 94% de las configuraciones eran únicas. De manera que cuando navegamos, y dejamos estas “huellas digitales” en forma de trazas, estas pueden ser recopiladas para que se arme una especie de historial de navegación del usuario (Web tracking).

El estudio será expuesto en Julio en la ciudad de Berlín, en el marco del evento PETS (Privacy Enhancing Technologies Symposium) . Como deben imaginar, ya habrán varios pensando cómo sacar provecho a estos valores agregados que nos traen los web browser, además tenemos la Internet revuelta con el show de la privacidad en facebook, a estas cosas no, no hay que darle tanta importancia, estas pasan por debajo de la mesa.

Carlos Rondón Ávila. http://nodnor.com

Posted via email from rondon’s posterous | Comment »

Planeta Web 2.0: inteligencia colectiva o medios fast food

Ya desde los inicios del dospuntocerismo, se venía escuchando sobre el poder de comunicación que da Internet a la gente y cómo a mayor abundancia evidentemente podría perderse calidad. El último libro de Cristobal Cobo y Hugo Pardo, plantea precisamente esta visión y por ese motivo dan el provocador subtítulo de: inteligencia colectiva o medios fast food.

Los autores se preocupan poco en fijar posición sobre la discusión, más bien les interesa mostrar el panorama de lo que ocurre con la hiperabundancia de información y las consecuencias que esto está desencadenando.

La posibilidad que dan las herramientas web 2.0, a través de las redes sociales o incluso a través de los post comments que a veces dicen más que el mismo artículo, hace que haya un culto a lo “amateur” a lo “no-profesional”, se gana volumen en detrimento de la calidad. Esto no quiere decir que la web 2.0 (en su concepción general, como web que “está haciéndose” por los usuarios) carezca de calidad, simplemente que hay una democratización no solo del acceso a la información sino además de su generación. Esto no tiene que ser bueno o malo, aquel que quiera expresar algo, efectivamente lo puede hacer (sin mayores conocimientos) en la web 2.0, y de la calidad de lo que quiera decir no dependerá su publicación, quizá sí su divulgación.

Esta discusión es el tema de fondo con las críticas a Wikipedia, es uno de los primeros y más emblemáticos esfuerzos de la web 2.0. Me pregunto: ¿Se podría juzgar el loable esfuerzo de la Fundación Wikipedia por los muchos desaciertos que conocemos y que son propios de su esquema de generación de contenidos? A propósito del caso Wikipedia y en la misma onda de la discusión, hay una tesis doctoral del 2009 titulada “Wikipedia: un análisis cuantitativo” por José Ortega de la Universidad Rey Juan Carlos, el trabajo está disponible en línea. Creo que es el primer trabajo doctoral que se ha hecho sobre el fenómeno Wikipedia.

El libro también aborda el tema de la web semántica, apoyado como es obvio en la referencia a Berness-Lee. Debo confesar que no he dedicado mucho tiempo a pensar en lo que podría ser una tercera etapa de la web, sin embargo, creo que hay mucho que decir: 1) Que realmente haya una propuesta seria de web semántica por parte de las grandes corporaciones, principalmente las avocadas al web search, tipo Google o Yahoo. 2) Esa web semántica que ya se está engendrando, proponiendo una nueva clasificación de la información, ya no con taxonomías sino con con folksonomías, quizá más que de una tercera etapa estaríamos hablando de una continuación (más o menos significativa) de la web 2.0 podría decir hasta web 2.5, pero no se si se merece la versión 3.0. Por otra parte, me parece reduccionista hablar de una tercera etapa de la web pensando principalmente en cambios que pudieran tener los mecanismos de búsqueda y clasificación actuales, creo que la web es mucho más que esos mecanismos que utilizamos para ubicar y clasificar la información. En este sentido, la evolución ocurrida de la web 1.0 a la web 2.0 es mucho más visible, ya que pasamos de una web hecha por empresas y expertos a una web donde al día de hoy, el 70% de los contenidos que se arrojan diariamente a la gran nube son producidos por los usuarios, a través de blogs, youtube, facebook, twitter, etc. Esto si es un cambio de paradigma. Pero si los motores de búsqueda logran mejorar sus sistemas de clasificación, de entendimiento, un motor humanamente inteligente para saber lo que realmente estoy necesitando… y por otro lado,  la web sigue siendo la misma, ¿podríamos hablar de una evolución de la web (TODA la Web) 2.0 a la web 3.0?

El libro está muy bien logrado, lo recomiendo ampliamente, está disponible para descarga en este blog gracias a su licencia Creative Commons, y también puede descargarse del sitio oficial dispuestos para tales fines.

Regresando al tema del libro y el Web 2.0 for dummies, espero que este post no sea juzgado por su corta extensión como fast food.


Carlos Rondón Á.
http://nodnor.com

Posted via email from rondon’s posterous | Comment »

El paréntesis de Gutenberg

A través de Filosofitis, uno de mis blogs de cabecera que cultiva Alejandro Piscitelli, me entero de un proyecto que desarrolla la University of Southern Denmark de la mano de Thomas Pettitt con este interesante título: “El paréntesis de Gutenberg”.

Algo atractivo en este tipo de propuestas, más allá de que puedan o no ser factibles, es que nos ponen a reflexionar sobre una serie de cosas que de otro modo no hubiésemos pensado. El planteamiento es simple, la idea, compleja. Una vez que situamos al hombre moderno (¿nosotros?) en la historia del universo, más o menos unos 100 mil años de historia, ubicamos la era de la imprenta en un lapso de 500 años de esa historia, de manera tal que, si es verdad que los nuevos medios de comunicación que se están masificando desde finales del siglo pasado, apalancados por Internet y todo lo que esto implica, están re-creando o reviviendo la cultural oral, se podría pensar que estos 500 años de omnipresente cultura escrita no son más que un gran paréntesis en la cultura humana. Identifico en la tesis dos cosas interesantísimas, primero, la desacralización de la cultura escrita, segundo, que es precisamente ahora cuando se está rompiendo el paradigma.

Recomiendo ampliamente la lectura del revelador post de Piscitelli, y una replica que él mismo recomienda, de Joaquín Rodriguez.

inurl:nodnor.com privacidad -facebook

Una gran parte de la seguridad informática no evoluciona necesariamente con el nacimiento o actualización de nuevos productos y servicios; muchos de los nuevos vectores de ataque, son producto del ingenio, la creatividad, la curiosidad, y el análisis exhaustivo sobre herramientas o servicios que ya tienen tiempo funcionando. Por esta razón es muy normal observar cómo a estos productos que ya tenían tiempo circulando se les descubren nuevas vulnerabilidades que antes, habían pasado desapercibidas.

Tal es el caso de un experimento organizado por le EEF (Electronic Frontier Fundations) llamado Panopticlick. El objetivo es muy sencillo, tratar de recopilar la mayor cantidad de datos a través del browser de cada usuario; ya es sabido que en los datos que se comparten a través del HTML se puede determinar la IP del navegante, el sistema operativo, la resolución de la pantalla, el idioma, y otros datos de usuario. Esto para mucha gente puede parecer común, normal y hasta inofensivo (¿?), la novedad en este experimento es que ellos agregaron información adicional que también es compartida a través de los mismos protocolos: Los plugins que la mayoría de la gente instala en sus browser casi para cualquier cosa, configuración de los módulos de javascript y versiones de flash, entre otros. Con toda la información junta y usando un sistema de información que maneja y clasifica estos datos, lograron establecer que de 1 millón de visitas, el 94% de las configuraciones eran únicas. De manera que cuando navegamos, y dejamos estas “huellas digitales” en forma de trazas, estas pueden ser recopiladas para que se arme una especie de historial de navegación del usuario (Web tracking).

El estudio será expuesto en Julio en la ciudad de Berlín, en el marco del evento PETS (Privacy Enhancing Technologies Symposium) . Como deben imaginar, ya habrán varios pensando cómo sacar provecho a estos valores agregados que nos traen los web browser, además tenemos la Internet revuelta con el show de la privacidad en facebook, a estas cosas no, no hay que darle tanta importancia, estas pasan por debajo de la mesa.

Planeta Web 2.0: inteligencia colectiva o medios fast food

Ya desde los inicios del dospuntocerismo, se venía escuchando sobre el poder de comunicación que da Internet a la gente y cómo a mayor abundancia evidentemente podría perderse calidad. El último libro de Cristobal Cobo y Hugo Pardo, plantea precisamente esta visión y por ese motivo dan el provocador subtítulo de: inteligencia colectiva o medios fast food.

Los autores se preocupan poco en fijar posición sobre la discusión, más bien les interesa mostrar el panorama de lo que ocurre con la hiperabundancia de información y las consecuencias que esto está desencadenando.

La posibilidad que dan las herramientas web 2.0, a través de las redes sociales o incluso a través de los post comments que a veces dicen más que el mismo artículo, hace que haya un culto a lo “amateur” a lo “no-profesional”, se gana volumen en detrimento de la calidad. Esto no quiere decir que la web 2.0 (en su concepción general, como web que “está haciéndose” por los usuarios) carezca de calidad, simplemente que hay una democratización no solo del acceso a la información sino además de su generación. Esto no tiene que ser bueno o malo, aquel que quiera expresar algo, efectivamente lo puede hacer (sin mayores conocimientos) en la web 2.0, y de la calidad de lo que quiera decir no dependerá su publicación, quizá sí su divulgación.

Esta discusión es el tema de fondo con las críticas a Wikipedia, es uno de los primeros y más emblemáticos esfuerzos de la web 2.0. Me pregunto: ¿Se podría juzgar el loable esfuerzo de la Fundación Wikipedia por los muchos desaciertos que conocemos y que son propios de su esquema de generación de contenidos? A propósito del caso Wikipedia y en la misma onda de la discusión, hay una tesis doctoral del 2009 titulada “Wikipedia: un análisis cuantitativo” por José Ortega de la Universidad Rey Juan Carlos, el trabajo está disponible en línea. Creo que es el primer trabajo doctoral que se ha hecho sobre el fenómeno Wikipedia.

El libro también aborda el tema de la web semántica, apoyado como es obvio en la referencia a Berness-Lee. Debo confesar que no he dedicado mucho tiempo a pensar en lo que podría ser una tercera etapa de la web, sin embargo, creo que hay mucho que decir: 1) Que realmente haya una propuesta seria de web semántica por parte de las grandes corporaciones, principalmente las avocadas al web search, tipo Google o Yahoo. 2) Esa web semántica que ya se está engendrando, proponiendo una nueva clasificación de la información, ya no con taxonomías sino con con folksonomías, quizá más que de una tercera etapa estaríamos hablando de una continuación (más o menos significativa) de la web 2.0 podría decir hasta web 2.5, pero no se si se merece la versión 3.0. Por otra parte, me parece reduccionista hablar de una tercera etapa de la web pensando principalmente en cambios que pudieran tener los mecanismos de búsqueda y clasificación actuales, creo que la web es mucho más que esos mecanismos que utilizamos para ubicar y clasificar la información. En este sentido, la evolución ocurrida de la web 1.0 a la web 2.0 es mucho más visible, ya que pasamos de una web hecha por empresas y expertos a una web donde al día de hoy, el 70% de los contenidos que se arrojan diariamente a la gran nube son producidos por los usuarios, a través de blogs, youtube, facebook, twitter, etc. Esto si es un cambio de paradigma. Pero si los motores de búsqueda logran mejorar sus sistemas de clasificación, de entendimiento, un motor humanamente inteligente para saber lo que realmente estoy necesitando… y por otro lado,  la web sigue siendo la misma, ¿podríamos hablar de una evolución de la web (TODA la Web) 2.0 a la web 3.0?

El libro está muy bien logrado, lo recomiendo ampliamente, está disponible para descarga en este blog gracias a su licencia Creative Commons, y también puede descargarse del sitio oficial dispuestos para tales fines.

Regresando al tema del libro y el Web 2.0 for dummies, espero que este post no sea juzgado por su corta extensión como fast food.

Google living stories
En diciembre de 2009, Google lanzó un servicio producido en sus laboratorios, llamado Living Stories; el proyecto es una especie de sindicación de noticias en la web; lo interesante del proyecto es que se crean entradas en torno a un tema noticioso, y estas entradas son agregadas por múltiples agencias de noticias o periodistas, es decir, que se puede tener una imagen completa y en tiempo real sobre las notas de prensa de un tema específico y con la pluralidad que significa la participación de múlitples voces. Además, el sistema cuenta con algunas facilidades que me recuerdan mucho el servicio de Google Reader, y es que a medida que avanzamos en la living story de algún tema particular, las entradas que ya hemos visto aparecen “contraídas” (no desplegadas) por lo que se destacan las actualizaciones sobre los post leídos. Es un esfuerzo importante por tratar de organizar el caos informativo, además, da la posibilidad de conectarse a una living story a través de Feeds o de suscripción por correo.

Me parece que el proyecto está siendo subvalorado, más aún, tomando en cuenta el hecho de que Google liberó el código fuente y le da la posibilidad a cualquier empresa de explotar, no solo la idea sino la plataforma del servicio. El video promocional es muy intuitivo en la presentación del producto, además hay un post de José María Mateos, donde explica algunas impresiones sobre esta iniciativa.

Veremos cuando surgen las primeras reacciones.

Posted via email from rondon’s posterous | Comment »

¿Cuál será el próximo “calentamiento global”?
Leo en Coming Anarchy un excelente artículo sobre “What’s the next -global warming-?”, basado en un post del Wall Street Journal, en el que explica cómo estas modas del “pánico ambiental” tienen sus ciclos de vida, se repiten, cobran vigencia, pasan de moda, surgen otras, etc. Antes fue la lluvia ácida, también el holocausto nuclear, luego el hueco de la capa de ozono, la sobrepoblación humana, y ahora el calentamiento global. El autor pregunta: ¿Qué viene ahora?. En sus comentarios se escuchan propuestas como la “Green Energy” y otras ideas que ya se perfilan, además relata cómo estas modas del “Pánico ambiental” justifican nuevos impuestos, cumbres como las de Copenhague que terminan en fracaso, nuevas ONG, falsos protagonismos como el de Al Gore que lo financian promoviéndose como el salvador del planeta, y además del oportunismo de las religiones o sectas religiosas que se aprovechan del pavor que genera la imaginación de este tipo de catástrofes, para crear más miedo y conseguir seguidores a través de propuestas mesiánicas y consolación espiritual.

Posted via email from rondon’s posterous | Comment »

Comentario sobre la entrevista a Richard Gatarski

Leí una traducción de la gente de nodosele sobre una entrevista que realizan a Richard Gatarski, profesor, amante de las tecnologías y bloguero de www.skolmarknad.info y www.weconverse.com.

La entrevista resulta interesante porque antes de comenzar a leerla, ya nos situamos en el contexto socio-cultural de Suecia, con esa irrupción profunda que están teniendo las tecnologías en los países escandinavos (incluido Dinamarca), y con una sociedad que ha alcanzado estándares de vida lo suficientemente altos como para que una gran parte de la población tenga acceso a estas innovaciones.

Compartimos casi todo en la entrevista. Especialmente, esa visión optimista que ha traído el dospuntocerismo cuando pensamos en educación y tecnologías (al mismo tiempo); me llama la atención, y aquí pongo el dedo, una buena pregunta que realiza el entrevistador:

Sostener que el acceso a equipos informáticos es más importante que la

competencia de los profesores, ¿no es una manera de poner la forma y la tecnología

por encima de los conocimientos que transmiten los contenidos?

Esta interrogante fue una derivación ineludible producto de las respuestas de Gatarski a preguntas anteriores que prácticamente hacían de esta pregunta una afirmación.

Su razonamiento, no me convence del todo, y la respuesta la veo muy reducida a esa condición cultural que planteo al inicio de esta reflexión. Quizá sea cierto, pero los que nos movemos en la realidad latinoamericana, nos cuesta muchísimo menospreciar la importancia que significa tener un profesor convencido (en cuerpo y alma) de que el uso de las tecnologías efectivamente deriva frutos positivos para la educación. Es difícil decidir qué tiene más peso, lo que si es seguro, es que podemos tener los mejores equipos y los últimos gadgets del mercado, pero si los profesores reaccionan negativamente al impacto, se resisten al cambio, defienden viejas posturas, siguen girando en los círculos viciosos del conectivismo-conductismo-constructivismo, no hacemos nada.

Reflexionando sobre este punto, me viene a la cabeza el caso cubano y el revuelo ocasionado por la epidemia bloguera, casi sin herramientas, pero con mucha voluntad y sobradas competencias, están exprimiendo todas las bondades de cualquier dispositivo digital o analógico que les permita conectar (aunque sea indirectamente) con Internet.

Doy las gracias al equipo de nodosele por dar acceso a esta entrevista que valoro sobremanera por las razones anteriormente expuestas. En relación a la traducción, noté en el documento algunos errores, y aunque no manejo el sueco, me atrevería a decir por la consistencia del texto, que algunas palabras no están bien traducidas.

Aquí dejo el vínculo para descargar la entrevista.

Posted via email from rondon’s posterous | Comment »

¿Cuál será el próximo “calentamiento global”?

Leo en Coming Anarchy un excelente artículo sobre “What’s the next -global warming-?”, basado en un post del Wall Street Journal, en el que explica cómo estas modas del “pánico ambiental” tienen sus ciclos de vida, se repiten, cobran vigencia, pasan de moda, surgen otras, etc. Antes fue la lluvia ácida, también el holocausto nuclear, luego el hueco de la capa de ozono, la sobrepoblación humana, y ahora el calentamiento global. El autor pregunta: ¿Qué viene ahora?. En sus comentarios se escuchan propuestas como la “Green Energy” y otras ideas que ya se perfilan, además relata cómo estas modas del “Pánico ambiental” justifican nuevos impuestos, cumbres como las de Copenhague que terminan en fracaso, nuevas ONG, falsos protagonismos como el de Al Gore que lo financian promoviéndose como el salvador del planeta, y además del oportunismo de las religiones o sectas religiosas que se aprovechan del pavor que genera la imaginación de este tipo de catástrofes, para crear más miedo y conseguir seguidores a través de propuestas mesiánicas y consolación espiritual.