viernes, 29 de mayo de 2009

¿Se funde Playboy por culpa de la Web?



En caída libre por la pornografía gratuita de la Web, Hugh Hefner, su excéntrico fundador, puso en venta la tradicional publicación masculina que creó en 1953 a 400 millones de dólares.

Así es, queridos lectores ávidos de curvilíneas mujeres, Playboy acaba de ser puesta en venta por culpa de las estrepitosas caídas en la comercialización de ejemplares y el desplome del valor de sus acciones.

El causante de este triste desenlace, afirmaron los especialistas, fue Internet: cada vez más gente prefiere ver pornografía gratis en la Web en vez de pagar una revista.

Según el medio Daily Mail, Hugh Hefner, el mítico fundador de la revista y propietario del 70% de la compañía- está dispuesto a deshacerse de Playboy por alrededor de 391 millones de dólares.

Entre los posibles compradores del imperio que hace culto al cuerpo femenino suena el nombre de Richard Branson, dueño de la empresa Virgin Media.

Si bien no existen hasta el momento ofertas formales, un vocero de Playboy aseguró que desde la mansión de Hefner escucharán “todas las propuestas que los accionistas consideren necesarias”.

Breve reseña

Hugh Hefner fundó la revista en 1953: en su primer número traía en su portada a una deliciosa Marilyn Monroe y fue toda una sensación para la época. Recién para la segunda edición se diseñó el famoso logo de un conejo con una corbata, que desde entonces aparece en cada ejemplar.

Si nos detenemos un poco, es difícil encontrar una mujer bella y deseada en los últimos 56 años que no haya desfilado por las páginas de Playboy: Jayne Mansfield, Pamela Anderson, Drew Barrymore, Kim Basinger, Denise Richards, Ursula Andress, Farrah Fawcett, Linda Evans y Madonna, entre otras.

¿Será el fin de Playboy en papel? ¿Intentará Hefner remontar esta caída reinventándose en Internet?

Fuente: RedUsers

Microsoft deja sin MSN a los países embargados por EEUU



Microsoft suspendió sus servicios de mensajería instantánea en los países sujetos a embargos económicos de los Estados Unidos; a saber, Cuba, Siria, Irán, Sudán y Corea del Norte.

La nueva y sorprendente disposición de Redmond deja sin Windows Live Messenger a los usuarios de estos cinco países y, por el momento, la compañía no hizo ninguna declaración acerca de los motivos que la llevaron a tomar la medida.

Si bien las causas no son claras, ya que no se explica muy bien la relación existente entre la política económica norteamericana y la posibilidad de acceder al Messenger (MSN), los usuarios residentes en Cuba, Siria, Irán, Sudán y Corea del Norte se están encontrando con un mensaje cuando intentan entrar al servicio, que indica que las sanciones económicas impuestas a este quinteto de naciones serían el real motivo de la suspensión de la prestación.

El mensaje es el siguiente (traducido del inglés): “810003c1: No podemos darle acceso al servicio .NET Messenger. La razón: Microsoft dejó de ofrecer servicios de mensajería instantánea en ciertos países a causa de las sanciones impuestas por Estados Unidos. Más detalles sobre estas sanciones están disponibles a través de la Oficina de Asuntos Exteriores del Gobierno de Estados Unidos”.

Como era de esperarse, las protestas de los usuarios ya empezaron a circular, sobre todo porque no se entiende por qué un embargo llevaría a Microsoft a tomar esta decisión justo ahora, teniendo en cuenta que las sanciones económicas impuestas por el Gobierno estadounidense a los países afectados son de vieja data, y supuestamente el presidente Obama estaría dispuesto a llevar a cabo una política de acercamiento.

Fuente: RedUsers

¿Podría desaparecer Internet?



Si bien la vida de muchos de nosotros se vería afectada sin las ventajas (y desventajas) de la web, algunos consideran que el fin de Internet tal y como lo conocemos está más cerca de lo que pensamos.

Los mensajes apocalípticos sobre las razones por las que Internet podría desaparecer, incluyen en primer lugar que se termine el servicio de registro del nombre de un dominio.

De esta manera, si se rompiera el camino habitual por el que encontramos las direcciones web, nadie confiaría ya en las URL’s, y el método fraudulento del phishing, por el cual los estafadores acceden a datos personales, sería mucho más fácil.

Otro de los motivos por los que podría desaparecer Internet es la fragilidad de su infraestructura física, ya que un posible accidente que afecte a un par de cables podría hacer que cientos de millones de personas no puedan utilizar la red, y no hace falta imaginar lo que un ataque intencionado podría hacer.

Por otra parte, están los virus, archivos que ponen en riesgo las PCs de los usuarios y el propio funcionamiento de la web. Entre ellos, se destacan los spam, las publicidades en ocasiones infectadas, que se envían de forma masiva a las computadoras y que, según los estudios podría suponer una cantidad indecible de equipos que se verán esclavizados tan fácilmente que los hackers querrán hacerse cada vez con más usuarios.

La modernización también puede ser otro problema. Por ejemplo el caso que en el 2007 protagonizó el sistema de comunicación Skype, cuyo programa fue pionero en las actualizaciones automáticas que iban mejorando el funcionamiento del sistema, y que sin embargo los usuarios dejaron de usar, porque la aparición masiva de ventanas impedía acceder a su uso con normalidad.

No obstante, el fin de Internet no sólo puede venir de sus debilidades técnicas o físicas, sino que el ser humano podría ser también y de una forma más directa uno de sus asesinos, según se explica en el libro “El gran interruptor” de Nicholas Carr.

De acuerdo a Carr, los hombres pueden lograr que Internet deje de ser una red global, ya que en los últimos se fueron agrupando según sus ideologías, o gustos selectos de manera que se crearon grupos extensos de gente que piensa igual y que sólo permite opinar en sus páginas a personas de igual pensamiento.

Fuente: Redusers

martes, 26 de mayo de 2009

El misterioso orgasmo femenino.

Desde un punto de vista evolutivo, el orgasmo femenino no constituye un gran misterio: es un incentivo placentero para buscar ulteriores encuentros sexuales. Al orgasmo masculino hay que sumarle la eyaculación.

Pero el clímax sexual de las mujeres es más complejo y recóndito que el masculino. Por ejemplo, puede ser fingido. Las mujeres no tienen la necesidad de experimentar un orgasmo para concebir (aunque ayuda si lo experimenta: permite que la mujer se mantenga tumbada después del sexo, reteniendo pasivamente el esperma).

Muchos psicólogos evolucionistas han llegado a considerar la idea de que el orgasmo femenino es una adaptación sofisticada que permite a las mujeres manipular, consciente o inconscientemente, a sus amantes: el número de contracciones vaginales que un orgasmo produce permite absorber más cantidad de esperma y, por tanto, aumenta la probabilidad de concepción. La succión uterina tira del esperma a través de la barrera mucosa cervical.

El undécimo Mandamiento.


En una de las conferencias pronunciadas por Carl Sagan en 1985 en las prestigiosas Conferencias Gifford, que se celebran en Escocia anualmente desde el siglo XIX, y de las que aquel año se celebraba el centenario de su inauguración, explicó que en occidente tenemos Diez Mandamientos, pero que ninguno de ellos nos exhorta a entender el mundo, a comprender las cosas, a combatir la ignorancia y el inmovilismo en las ideas.

Lo cierto es que muy pocas religiones nos empujan a potenciar nuestra comprensión del mundo.

Cuando se critica que las prescripciones morales e ideológicas de la religión han quedado en gran parte anticuadas o no se han sabido adaptar a los nuevos descubrimientos sobre la realidad, enseguida los creyentes demandan respeto a su fe, por muy irracional o impulsiva que sea ésta. Y, por supuesto, uno puede creer lo que quiera. Lo que es difícil de respetar es el dogma. Porque el dogma es sinónimo de fanatismo.

Los creyentes suelen aducir que quienes creen en la ciencia también tienen otro modo de fe: fe en que, por ejemplo, determinados postulados científicos son verdaderos. Eso es cierto. La diferencia estriba en que las verdades de la religión son incuestionables, eternas, proceden de una sola fuente o de muy pocas fuentes, no se cuestionan a menudo, no se someten a duros análisis so pena de considerarse una falta de respeto, no se conducen, en definitiva, con humildad.

La ciencia es también fe. Fe en hipótesis y teorías. Pero una fe humilde, deseosa de evolucionar, pues considera que no posee la verdad, sino que se aproxima a la verdad en sucesivos adelantos y regresiones.

Misión: Salvar el ‘Hubble’

Suenan las primeras notas de serial Misión imposible. Porque es, más o menos, a lo que se enfrenta ahora mismo la NASA al lanzarse a reparar el dañado telescopio Hubble.

El Hubble tiene una cámara principal inutilizada, un espectógrafo tanto de lo mismo, unos circuitos quemados, su antena ha sido víctima de un agujero del tamaño de una bala del calibre 22, las baterías están dando sus últimos coletazos y su brillante fuselaje pierde lustre tras los innumerables impactos de minúsculas partículas.

Situado a 600 kilómetros de la Tierra, el telescopio Hubble ha sido el autor de muchas de las bellas imágenes del espacio que pueblan el imaginario colectivo (es posible que alguna, ahora, sea el fondo de pantalla de vuestro ordenador). El Hubble es el telescopio más importante desde que Galileo construyera el primero a comienzos del siglo XVII. Es nuestro ojo Big Brother orientado al universo. Gracias al Hubble, sabemos que la expansión del universo se está acelerando (constante de Hubble) y que las galaxias se formaron poco después del Big Bang, hace 13.700 millones de años.

La inteligencia se desarrolló para manipular mejor a los demás

La competición entre mentes fue, evolutivamente, lo que propició el rápido desarrollo de la inteligencia del ser humano. Un proceso competitivo que algunos denominan ECL (Evolución de la Contienda entre Loci).

Por poner un ejemplo más claro. Imaginad que existe un gen que sirve para que su poseedor sepa mentir mejor, convirtiendo así a estos individuos en estafadores de éxito. Pero entonces surge una versión del gen diferente, capaz de detectar las mentiras más elaboradas. Estos segundos individuos, que quizá también posean la primera versión del gen de la mentira, serían capaces de escamotear las estafas.

Las dos habilidades se irían desarrollando, pues, en una especie de escalada armamentística, en la que los mentirosos cada vez mentirían mejor y los cazadores de mentirosos cada vez detectarían mejor el fraude.

Así es, a grandes rasgos, cómo se desarrollaron las sutilezas de la inteligencia humana en los últimos tres millones de años.

Los genes Hox: ¿el tamaño de la mano o de los pies está relacionado con el del pene?

Voy a tratar un asunto de capital importancia para muchos, tanto para científicos como para no científicos. El tamaño del pene. (Al menos debe de ser importante si tenemos en cuenta la inmensa oferta en el mercado para conseguir ganar unos centímetros extra).

La cultura popular siempre ha dicho que un hombre de manos o pies grandes debe de tener necesariamente un gran miembro viril, y viceversa. Pero ¿se cumple realmente esta correlación?

Para responder satisfactoriamente a esta pregunta debemos recurrir a los genes Hox.

La biología moderna ha demostrado que el cuerpo de los animales está dividido en territorios estancos, compartimentos que no se ven a simple vista pero que están limitados por unas fronteras invisibles. Unas barreras que las células respetan durante el desarrollo del organismo.

¡Basta de megapíxeles!

¡Basta de megapíxeles!

Luego de varios años de puja, parece que finalmente los fabricantes de cámaras digitales encontraron el tope en cuanto a los megapíxeles que ofrecerán los sensores instalados en la lente. Así como las grabadoras de CD encotraron su escalón más alto para la grabación y lectura de datos en los 52x, las cámaras digitales parecen haberse chocado con su techo a los 12 megapíxeles.

Quien dió el primero paso en este sentido fue Akira Watanabee, manager de Olympus, quien dijo textualmente que “Doce megapixels son suficientes para cubrir la mayoría de aplicaciones y necesidades de los consumidores“. Lo mismo afirman varios estudiosos de la imagen, que coinciden con Watanbee en que, superado ese valor, poco se puede hacer con la imagen resultante.

Y en parte tienen razón. Veamos sino el siguiente cuadro, que expresa el equivalente impreso de la imagen (en pulgadas, donde 1 pulgada es igual a 2,54 cm), según los megapíxeles del sensor.

tablampA partir de esta tabla, podemos decir que, a 12 megapíxeles, seremos capaces de imprimir, en reación 1:1, una imagen con un tamaño de unos 35 x 20 cm, conservando una excelente calidad. ¡Así no hay portarretrato que aguante!

El punto es que cualquier trabajo en gráfica, sea imprea o digital, no necesita más que eso para lograr un resultado óptimo. Por otro lado, es bien sabido que esta “histeria” por los megapíxeles llevó a muchos fabricantes a optar por técnicas como la interpolación (inserción de píxeles “inventados” por un algortitmo, para hacer a la imagen más grande), lo que en definitiva logra fotos enormes, pero con una calidad desastrosa.

La cuestión es que, dejando este aspecto de lado, hay muchas otras cuestiones en las que debemos centrarnos al momento de elegir una cámara. La calidad de la lente, por ejemplo, es fundamental, por que es ni más ni menos que la “puerta de entada” de la imagen, previa al sensor. En lo particular, les recomiendo la línea Carl Zeiss (http://www.zeiss.com), adoptada por muchos fabricantes, como Sony o Panasonic.

Tampoco debemos dejar de lado los sistemas de estabilización de imágenes, que si son mecánicos nos aportarán mejores resultados, el sistema de detección de rostros, la sensibilidad ISO y la capacidad de la cámara para reducir el “ruido” en la imagen cuando la iluminación ambiente es poca, el flash, el display LCD y su visualización en exteriores, el zoom óptico (al digital ni siquiera lo tenemos en cuenta), el consumo de las baterías y la autonomía de la cámara, la conectividad, la compatibilidad con los distintos modelos de tarjetas de memoria y muchos extras más.

Por eso, al momento de elegir una cámara, olvidemos si un megapíxel más o un megapíxel menos, y centrémonos en los otros aspectos, que serán los que en definitiva nos harán sentir orgullosos de cada momento que retratemos.

Fuente: Tecnocrónicas

Aventuras de un Conocedor de hard

Un conocedor de hardware tiene la siguiente pesadilla: se encuentra en situación de comprar una notebook. Se acerca a los negocios con tranquilidad, a sabiendas de que su experiencia, conocimiento y efectivo sentido común le garantizarán el mejor resultado posible. Nada para volverse loco: si Schumacher tuviera que elegir un triciclo, no la tendría más fácil.

El ceño del Conocedor empieza a arrugarse cuando constata un hecho bien sabido, pero hasta entonces poco considerado: las notebooks son cajas cerradas hechas al antojo de sus fabricantes y por más que “sepa”, muy poco puede hacerse para alterar las configuraciones.

Comienza entonces la evaluación de las unidades disponibles. El apacible recorrido pronto se transforma en una galería del horror informático: una laptop tiene disco demasiado pequeño, a otra le falta resolución, otra no tiene salida de TV, a otra le falta un diente… Y algunas están tan cerca de ser perfectas, que todo resulta más irritante.

Un vendedor de bigotito acude a dar su opinión: “Ni lo piense, ésta es mejor. Aquella es Celeron y ésta es dual core.” Pero resulta que el equipo no recomendado también es de doble núcleo (Celeron dual core) y tiene un chipset de video mucho más moderno y rápido que el preferido por el vendedor.

Sueño dentro del sueño: mientras el Conocedor debate mentalmente las diferencias entre las cantidades de caché de los procesadores disponibles en las distintas máquinas, la frecuencia de bus y otras minucias relacionadas, los fabricantes de notebooks –reunidos especialmente– lo miran por una camarita y se matan de risa mientras comen torta y fuman en pipa en una oficina del Taipei 101.

A todo esto, el vendedor insiste: “Señor, si seguimos con esto, usted se va a quedar pelado y yo voy a envejecer todavía más. ¿Por qué no elige una dual core y listo?… ¿Chipset? ¿De qué me habla?

Otros vendedores y compradores presentes se acercan y forman a su alrededor un corro enfervorizado que exclama las palabras mágicas: “¡dual core! ¡dual core!” El Conocedor sabe que la situación es análoga al climax de la película El hombre con visión de rayos X. Allí, el protagonista, hastiado de ver tanta realidad, decide arrancarse los ojos. ¿Tendría que hacer él lo mismo? ¿Sería esta nube de Megahertz, Megabytes, Watts y píxeles, que lo dejaba ver dentro de los equipos y que recalentaba su cabeza, el origen de todo el problema? Sin tener la respuesta y con gran enfado, el Conocedor salió del comercio con las manos vacías.

Luego, en otra tienda, ya con la nube disipada, vio una laptop que cautivó su atención y tras conocer algunos detalles, sin darle demasiadas vueltas, ejecutó la adquisición.

Al despertar del sueño, el Conocedor reflexionó que, tal vez, en estas situaciones complejas lo mejor sea dejar actuar el impulso, la inteligencia emotiva, antes que exprimirse la cabeza o arrancarse los ojos.

Fuente: Donde Queda Internet

Un instalador para doña Rosa

Un instalador para doña Rosa

Los amantes de la informática cargamos con una pesada mochila en las espaldas: hacerle más fácil la vida a los novatos, con todo el derecho del mundo que éstos tienen de serlo de aquí por siempre.

Vagamos por la vida respondiendo preguntas de amigos, familiares, conocidos, todas encabezadas con la frase “Vos que andás en el tema…“. En la medida que esto no esté involucrado con nuestro trabajo, uno tiene cierta libertad, dentro de los parámetros de la amabilidad, de esquivar la responsabilidad con una gambeta digna de Maradona y pasarle la pelota al primer desapercibido que se nos cruce. “Mirá… yo mucho de esta cuestión no sé, pero preguntale a (nombre de la víctima) que seguro te va ayudar“. Frase cargada de una alta traición, pero efectiva a la vez.

La cosa se complica cuando entra en juego nuestro trabajo, y no nos queda otra que resolver situaciones relativamente simples a personas que las hacen tremendamente complicadas. Recuerdo que allá por el año 1995, cuando dictaba mis primeras clases de informática, pensaba “Esto no va a durar mucho, en diez años manejar una PC será como mirar televisión“. Cuán equivocado estaba. Está bien, la inserción de la informática es tremenda, pero les puedo asegurar que la sociedad digital está plagada de expertos en Facebook, Fotolog y Messenger, pero ignorantes absolutos en cuanto a siquiera administrar un acceso directo. ¿Está bien que así sea? ¿Es un problema educativo o de falta de interés? No es esta la ocasión de responder eso, pero sí es bueno saber cómo facilitarles la vida a esa gente, que depende de nosotros, y para quienes trabajamos.

El ejemplo que les voy a dar en esta oportunidad es uno de miles que se nos pueden plantear, pero que cada uno sabrá trasladar a su propia realidad. Supongamos que decidimos poner una radio que transmite por Internet. Lo más lógico es que incorporemos un reproductor al mismo sitio, compatible con Windows Media Player. Todo muy lindo, pero seguro tendremos un ejército de escuchas quejándose que no pueden acceder a la transmisión, o porque les falta un plugin, o porque todavía usan una PC con Windows 98, o porque el Espíritu Santo depositó un navegador altamente incompatible en su PC, o por lo que fuera.
¿Cuál sería entonces el método ideal? Instalarle un reproductor de MP3, con un acceso directo para que se conecte a nuestra transmisión sin pasar por la web. Supongamos, el popular, portátil y extremadamente liviano XMPlay (http://support.xmplay.com).

¡Fácil!“, pensarán ustedes. “Bajo el archivo ZIP, lo descomprimo en alguna carpeta dentro de Archivos de programa, configuro el programa para asociarlo a los archivos de audio, creo un archivo PLS con el link a la IP de nuestro streaming y lo copio o creo un acceso directo al escritorio, para que al hacerle doble clic se abra el XMPlay reproduciendo automáticamente la radio“. Permítanme que me ría: “¡Jajajajaa!“. Gracias. Ahora, traten de explicarle eso a doña Rosa.

Insisto en que planteo este ejemplo como podría plantear otros miles, con programas y situaciones diferentes. Veamos a continuación entonces cómo resolver esta situación de la manera más fácil para el destinatario. En este caso, lo que haremos será acudir al archiconocido WinRAR (http://www.winrar.es) para crear un instalador personalizado de XMPlay, que lo deje listo para operar con nuestra radio con apenas un clic en el botón [Instalar].

¡A crear el instalador!

Lo primero que debemos hacer es descargar y descomprimir los archivos de XMPlay a una carpeta cualquiera, ejectuar el programa por primera vez, y configurar su aspecto tal como queremos que lo vea el usuario. Por ejemplo, le ocultamos el ecualizador, el playlist y todo lo que a nuestro criterio sea “sobrante”. De esta manera, al cerrar el programa se generará el archivo .ini correspondiente para que la próxima vez que se abra aparezca tal como lo dejamos.

Ahora vamos a WinRAR, navegamos hasta donde se encuentran los archivos que incluiremos en nuestro instalador, los pintamos a todos y hacemos clic en el botón [Añadir].

001

Se abre una ventana con varias solapas. En la solapa [General] seleccionamos la opción [RAR] en [Formato de archivo], y en [Opciones de compresión] tildamos [Crear un archivo autoextraíble] y [Crear un archivo sólido]. Para terminar este paso, ingresamos el nombre del instalador en [Nombre del archivo].

002

En segunda instancia, vamos a la solapa [Avanzado] y hacemos clic en el botón [Autoextraíble].

003

Se abre otra ventana, donde visitamos primero la solapa [Avanzado] para hacer clic en el botón [Añadir acceso directo].

004

Otra ventana se abre. Ahora, en [Crear en], seleccionaremos el destino para el acceso directo al programa. En nuestro caso, indicaremos que el acceso directo se genere en el Escritorio.
También debemos definir los parámetros para el acceso directo. En [Fichero origen] ingresamos el nombre textual del archivo ejecutable al que apuntará el acceso directo (en nuesto caso xmplay.exe). Pero ya que estamos, aprovechamos y le agregamos un modificador a continuación, que en este caso es la URL que lleva al archivo de reproducción para nuestra radio online. De esta manera, al abrirse XMPlay con este acceso directo, lo primero que hará será reproducir este enlace. Así como pusimos una URL, podríamos poner la ruta a un archivo MP3, por ejemplo.
Por último, en [Descripción del acceso directo] colocamos una leyenda para que se vea cuando se coloque el mouse encima, y en [Nombre del acceso directo] justamente el nombre que le asignaremos (tratemos de ser lo más claros posible).

005

Yendo ahora a la solapa [Modo], tildamos la opción [Sobrescribir todos los ficheros], para reemplazar de inmediato cualquier instalación anterior, sin preguntas.

006

Seguimos adelante, hacia la solapa [Texto e icono]. Aquí podremos aprovechar las etiquetas [Título de la ventana] y [Texto a mostrar en la ventana], para poner un título y una explicación que detalle lo que hará el instalador, respectivamente. Como valor agregado, podemos debajo agregar un logotipo e icono que adornen nuestro instalador.

007

Algo similar al caso anterior podemos hacer mediante la solapa [Licencia], donde podremos aclarar todas las condiciones de uso y permisos respecto a este software.
Terminamos esta parte con un clic en [Aceptar].

008

Volvemos entonces a la ventana anterior, donde finalmente crearemos el archivo instalador con un clic en [Aceptar].

009

Aquí podemos ver al instalador ya creado. Aquí luce el icono característico de WinRAR, aunque podría haber sido reemplazado por nuestro propio icono, como detallamos en los pasos anteriores.

010

¡Listo! Sólo nos resta divulgar ese archivo a través de una página web, un pendrive o como fuere, para que doña Rosa lo ejecute y simplemente haga un clic en [Instalar] para que XMPlay se incorpore a su PC con un acceso directo exclusivo a nuestra radio o audio en Internet, en su propio Escritorio de Windows.

011

Fuente: Tecnocrónicas

Educación tecnológica: ¿estamos errando el camino?

En esta oportunidad me voy a tomar estas líneas para hacer un análisis a modo personal de la educación de nivel medio y la tecnología, un aspecto en el que hay cuestiones que creo que deberían ser, al menos, revisadas.

La educación es un tema que genera grandes controversias, por dos factores: primero porque es uno de los pilares fundamentales para el sostenimiento de cualquier sociedad. “Con la democracia se come, se cura y se educa“, decía el difunto Raúl Alfonsín. Segundo, la educación es uno de los grandes generadores de empleo a nivel nacional, y todos tenemos, al menos, una tía que es docente; por lo que de docencia, como de fútbol, todos hablamos como eruditos.

Para evitar entonces malos entendidos, pongamos el eje de discusión en contexto: voy a dedicarme a la formación tecnológica en escuelas públicas, en el interior del país.

Hace un par de días nos enteramos de la noticia del lanzamiento de los programas “Acceso Tecnológico Educativo” y “DreamSpark“, impulsados por Microsoft para achicar la brecha digital. Nada nuevo bajo el sol, ya que Microsoft desde hace años, en conjunto con Intel, vienen haciendo acuerdos con el Ministerio de Educación para formar a docentes en la implementación de la informática.
Casualmente, por estos días, el Presidente español, Rodrigo Zapatero, anunció la iniciativa “Escuela 2.0” que, entre otras medidas, promueve la dotación de pizarrones digitales y conexión a Internet para las escuelas, además del reparto de una computadora portátil de bajo costo a estudiantes de nivel primario y secundario. Hasta aquí todo fantástico, salvo por el detalle que los rumores hablan de un acuerdo con Microsoft para que éstas estén provistas de software de la empresa.

De paso por España, Richard Stallman, gurú del software libre, aprovechó para dar su sentencia tajante contra de este tipo de iniciativas. “Regalar computadoras con Windows a los niños supone vender el futuro del país a Microsoft“, lanzó Stallman como primera frase, a lo que agregó “¿Por qué quiere regalar Microsoft copias casi gratuitas (de Windows) a escuelas y niños? Es como regalar drogas. La primera dosis es gratis pero, después de ser dependiente, tienes que pagar“.

Respecto a las declaraciones de Stallman, desde hace años los docentes reciben la mayoría de su capacitación basada en Windows, algo que por supuesto se viene trasladando a los alumnos. Leyendo el excelente artículo de Facundo Arena sobre su caso de evangelización de Linux pensé: “¡Claro! ¿Cómo no se van a mostrar reacios a Linux, si desde que tocaron por primera vez una computadora, quizás en la escuela, lo único que vieron fue el botón Inicio y sus programas?“.

La única iniciativa de la que fui testigo para insertar Linux en las escuelas fue cuando el gobierno mandó una gran dotación de computadoras IBM Thinkcentre, provistas de un arranque dual Windows-Linux. También fui testigo de directoras que no sabían de qué se trataba “eso de Linux” que le habían puesto a las computadoras. O sea, los equipos estaban, pero faltaba un pequeño detalle: la capacitación.

Al respecto aclaro que mi postura no es anti-Windows. De hecho, me parece fundamental que el Ministerio de Educación haga acuerdos con Microsoft para que el alumno tenga un acceso cada vez más fácil a sus productos, indiscutiblemente los más utilizados a nivel mundial. Pero también creo que ese mismo Ministerio debería capacitar a sus docentes para que, a la par, sean capaces de mostrarles a los alumnos que hay una alternativa gratuita para usar su computadora, y por la cual no deberán pagar cientos de dólares (o ustedes piensan que Microsoft se seguirá haciendo el tonto con la piratería para siempre, y no llegará el momento en el que sí o sí deberemos pagar para usar su sistema?).
Con iniciativas como éstas, no sólo habremos formado a alumnos en el conocimiento del manejo de la computadora (casi tan importante como saber leer y escribir), sino también con la libertad de elegir bajo qué sistema llevar adelante su vida digital.

Otro punto para cuestionar es la Ley Nacional de Educación, que ni antes ni ahora parecen terminar de amoldarse a la realidad informática. Antes de la nueva ley, las escuelas de nivel medio contaban con espacios opcionales donde la informática se dictaba a modo de taller. Ahora, esos espacios están enmarcados bajo una materia denominada “Juventud, Participación y Ciudadanía“, con una clara tendencia humanística, lo cual está perfecto. Pero, ¿dónde dictamos informática? Desde el gobierno nacional hay una “bajada de línea” para que informática deje de darse como una materia específica, y se convierta en un complemento de todas las demás materias: geografía, matemática, historia, formación ética y ciudadana, etc.
¡Fantástico! Pero, ¿cómo hacemos para que las profesoras de estas materias inserten efectivamente la informática en el aula, si la mayoría desconoce cómo crear y administrar un blog, o no sabe lo que es un foro, o ni siquiera saben cómo moderar un grupo de mail?

No confundamos, una mayor inserción de la computadora en las casas y en las escuelas, no nos garantizan usuarios capaces de aprovechar al máximo las bondades de esta era digital. Como decía en mi post anterior, una manada de expertos en Facebook, Fotolog y Chat no es una sociedad informatizada. Creo que el camino va por otro lado. ¿No les parece?

Fuente: Tecnocrónicas

lunes, 25 de mayo de 2009

Twitter, un exito muy particular

Explicar que es Twitter es algo complicado. No hay forma simple de contar qué es. Y mucho menos, dar cuenta de cuáles son las razones que llevaron al éxito a un servicio Web donde se pueden publicar mensajes de apenas 140 caracteres. Tal límite respondía a que la idea originaria del sitio era poder funcionar a través de mensajes cortos desde el celular. Pero a pesar de que la gran mayoría de sus usuarios nunca usaron ese método de actualización, Twitter fue un suceso. Y todo esto más allá de que una gran cantidad de personas que navegan en Internet siguen sin entender en absoluto cuál es su utilidad.

La gran pregunta es: ¿cómo una idea tan simple pudo transformarse en semejante suceso? Al principio, era bastante común encontrar entradas en blogs donde se criticaba al servicio como inútil e irrelevante, y se burlaban de los usuarios que lo usaba. Nada demasiado original, claro. Lo mismo habían dicho de los blogs algunos años antes: que eran irrelevantes, que eran usados para publicar pavadas y que a nadie le interesaban. Ahora, con Twitter instalado en el panorama de la Web de manera bastante sólida, ese tipo de referencias ya es más difícil de encontrar. En todo caso, los que consideraban irrelevante a Twitter simplemente no lo usan y punto.

La idea de esta entrada es dar cuenta de algunas de las características que han llevado a Twitter a obtener tanto éxito. No agotan todas las posibilidades, sólo señalan algunas que considero más importantes. Si tienen más ideas, pueden aportar en los comentarios, claro.

1) Instantaneidad. Publicar en Twitter es muy simple, y eso lo convierte en una excelente plataforma para dar a conocer novedades. Además, se pueden enviar entradas desde dispositivos móviles y muchos servicios diferentes. Para profundizar hay que acudir a otros tipos de publicación, como sitios de medios o blogs. Pero para enterarse, Twitter les gana a todos.

2) Disponibilidad de aplicaciones para usar en la red de Twitter. Gracias a la interfaz de programación de aplicaciones (API, por sus siglas en inglés), hay una gran cantidad de servicios y aplicaciones que usan los recursos de Twitter. Desde clientes para publicar hasta servicios Web para contar que estamos escuchando, enlazar fotos tomadas con el celular y publicar los titulares de las entradas de nuestros blogs, entre otras posibilidades. Esa integración con plataformas de terceros explica buena parte del suceso de Twitter para resistir la llegada de competidores que aparecían bastante fuertes como Jaiku, Pownce y Rejaw -los dos últimos incluso ya han desaparecido.

3) Posibilidad de clasificar entradas mediante etiquetas. Los llamados hashtags -palabras que definen un texto, y que comienzan con “#”. Gracias a estos hashtags, se pueden definir cuáles son los temas más conversados en Twitter, algo que muchos medios han comenzado a explotar.

Es interesante ver cómo Twitter ha logrado tener éxito gracias a su simplicidad, y aunque muchos puntos de su servicio no están muy definidos. Por ejemplo, el sistema para manejar a quienes seguimos -”following”- y los que nos siguen -”followers”- es bastante poco práctico. Ni que hablar de la inestabilidad que tuvo el servicio por muchos meses, y que provocaba que constantemente se encontrara inaccesible. Recién en los último meses el tema se solucionó, aunque en parte.

Lo que es cierto es que Twitter tiene sentido cuando tenemos una comunidad relativamente amplia de contactos. Allí, cuando publiquemos, obtendremos un número de respuestas relevantes. Recuerden, de todos modos, que seguir a alguien no significa que éste nos sumará como contacto de manera automática. Hay que tener un poco de paciencia y publicar entradas interesantes, que ya llegarán los followers.

Trackbacks

Fuente: Nomades

¿Qué es Jitter?

Esta situación del home office compulsivo. (en la medida de lo posible), me ha hecho tener la necesidad de otra calidad de servicio de inte...