Gonzalo Anti New World Order


EE.UU. vigilará a la gente mediante los datos del ADN

El Gobierno federal de EE.UU. no escatima ni fuerzas ni recursos para tener en la mira a cualquier persona y la última novedad en este ámbito es el uso de pruebas de ADN para identificar a “personas específicas”.

Según los documentos, obtenidos por el portal de noticias WND, el Gobierno federal está planeando un programa espía sofisticado utilizando “firmas fisiológicas” para localizar a los individuos. El objetivo de esta idea es detectar, así como analizar y clasificar, rasgos únicos de la persona para que las autoridades puedan aprovechar para “identificar, localizar y rastrear personas o grupos de personas específicas“.De acuerdo con los documentos oficiales del desarrollo de base de datos, se revela la capacidad de rastrear a las personas mediante la detección de “ciertas características de interés operativo” diseñado especialmente para militares y la inteligencia estadounidenses.Aunque no se sabe cuándo podrán estas capacidades pasar al ámbito de las operaciones de lucha contra el terrorismo, el Gobierno federal a través del Laboratorio de Investigación de la Fuerza Aérea (AFRL) acude a la ayuda del sector privado con el fin de hacer realidad este ‘bioespionaje‘.

Se informa que el programa de AFRL podrá aplicarse a una variedad de dominios, como el aire, el espacio o el ciberespacio. El programa también puede destinarse ampliamente a otras ramas del Departamento de Defensa de EE.UU. y la inteligencia. El año pasado el presidente Barack Obama declaró que quiere que EE.UU. cuente con una base de datos nacional de ADN, y una decisión reciente del Tribunal Supremo ha abierto la puerta para que sea creada.

Fuente: Russia Today

Condiciones de Facebook: todo lo que aceptaste sin leer, explicado de forma clara

Esta semana Facebook, la gran red social, ha cumplido 10 años. Con más de 1230 millones de usuarios activos, la red social de Mark Zuckerberg se ha convertido en uno de los servicios de mayor peso en la red; un lugar en el que es fácil registrarse pero que, sin embargo, nos ofrece un “contrato” que no todos los usuarios leen ni tampoco conocen.

Las condiciones de servicio, también conocidas como “términos de servicio” o ToS, son una serie de clausulas que encontramos cuando nos registramos en un servicio, vamos a usar por primera vez una aplicación o estamos instalando un software. Clausulas escritas, normalmente, en lenguaje jurídico (o pura verborrea legal, según se mire) y que describen cuáles son las condiciones de uso de un servicio determinado, qué se hace con nuestros datos, qué responsabilidades tenemos o qué obligaciones tiene el prestatario de los servicios.

Si bien sería lógico que este tipo de clausulas fueran fáciles de entender por los usuarios, la realidad es que están redactadas para ser un galimatías de tal calibre que los usuarios las aceptan sin revisar y sin leer. Si en Celularis hace unos días hablaron de las condiciones de WhatsApp y de las clausulas que los usuarios aceptaban sin leer, no es el único servicio que “casi” nos hace vender nuestra alma para poder usarlo; cualquiera de las redes sociales que usamos también tienen sus clausulas abusivas y, dado que en esta semana Facebook ha cumplido 10 años, vamos a poner el foco en la red social de Mark Zuckerberg para analizar qué condiciones hemos aceptado en Facebook, seguramente, sin haberlas leído.

Navegar y navegar por las clausulas

Las clausulas que definen las condiciones de Facebook, afortunadamente, están en castellano y, por tanto, se rompe un poco la barrera del idioma. Sin embargo, a pesar de la traducción, Facebook deja claro que lo que estamos leyendo es una traducción de un texto escrito en inglés de Estados Unidos y que, por tanto, el que prevalece como vinculante (el que aceptamos como contrato) es la versión en inglés así que si hay errores en la traducción no se tienen en cuenta desde el punto de vista de Facebook.

Partiendo de esta base, el texto que encontramos en las condiciones de Facebook, y que nadie suele leer, está estructurado en 19 bloques que, a su vez, se expanden por un buen número de páginas “aclaratorias” con más ramificaciones y que intentan explicar (aunque es fácil perderse entre tanta página) qué es lo que hace Facebook con nuestros datos y con la información que generamos en su plataforma.

Tus datos, mis datos, nuestros datos

  • Aunque Facebook indique que somos los propietarios de los derechos de los contenidos que subimos (nuestras fotos, nuestros vídeos…), la red social de Mark Zuckerberg se auto-atribuye una licencia de uso mientras seamos usuarios del servicio y, por tanto, puede usar nuestros contenidos o los que generemos en aplicaciones conectadas con Facebook. Dicho de otra forma, cuando subimos una foto a Facebook, el servicio tiene derecho de usarla y puede mostrar nuestra foto de perfil en el widget que se usa en una web o usar un vídeo subido en otra sección aunque, eso sí, la visibilidad de los contenidos depende de nuestra propia configuración de privacidad (y si hemos acotado la visualización de los contenidos que hemos publicado).
  • Cuando eliminamos un contenido de Facebook, no es descabellado pensar que éste desaparezca de la red social; sin embargo, las cosas no son tan simples. Facebook nos avisa que aunque borremos algo puede que no desaparezca del todo porque, como buena empresa tecnológica, guarda copias de seguridad de sus bases de datos y contenidos y los retiene durante un tiempo para poder recuperar información. Por tanto, aunque borremos algo, lo más seguro es que Facebook lo siga conservando.
  • Que una aplicación acceda a nuestros datos, según Facebook, es algo que depende de nosotros. Facebook se asegura de mostrar qué información y acceso requiere la aplicación conectada y queda de nuestro lado aceptar estas condiciones de la aplicación (y compartir nuestra información con un tercero).
  • Por el hecho de usar Facebook, los usuarios nos convertimos en “producto” de los anunciantes de la plataforma. Al registrarnos estamos aceptando tácitamente que Facebook use nuestra foto de perfil, nuestro nombre o nuestros contenidos para sus campañas publicitarias o algoritmos de segmentación; de esta forma, usan nuestros datos para modelar la publicidad que vemos o la que puedan ver otros usuarios (indicando a nuestros amigos que a nosotros nos gusta una determinada marca). Nuestra implicación en la publicidad es obligatoria y, por supuesto, no recibiremos dinero alguno por nuestra participación.
  • Al usar Facebook consentimos que nuestros datos se almacenen en Estados Unidos y, por tanto, les aplique la legislación vigente en el país. De todas formas, hay una curiosa excepción para los usuarios de Alemania que cuentan con unas condiciones especiales tras los distintos procesos legales contra la red social en este país.

Seguridad y protección de los usuarios

  • Facebook no garantiza que su plataforma sea segura; sí que es cierto que impone ciertas “reglas de uso” y mecanismos para informar si nos topamos con usuarios que ejerzan de stalkers, publiquen contenidos violentos, sean spammers o realices actividades comerciales fuera de las normas establecidas.
  • Para poder registrar una cuenta en Facebook, el usuario debe ser mayor de 13 años y ofrecer información real (nada de nombres falsos o registrarnos suplantando a otra persona). De hecho, al registrarnos, uno adquiere una serie de compromisos con Facebook que, teóricamente, debemos cumplir: mantener actualizada la información de contacto, no compartir nuestra contraseña (aunque esto debería ser obvio), no transferir la cuenta a un tercero, usar datos reales y, además, acatar que Facebook pueda reclamar (y quitarnos) nuestro nombre de usuario porque una marca lo reclame o se queje.
  • Facebook se reserva el derecho de retirar contenidos publicados si considera que violan sus políticas o si alguien ha denunciado una violación de derechos de propiedad intelectual. Además, para los usuarios reincidentes, Facebook puede considerar la desactivación de las cuentas sin previo aviso.

Los derechos del usuario

  • Facebook puede cambiar las condiciones del servicio cuando quiera, es algo que deja bastante claro. Si bien es cierto que avisará a los usuarios, en el momento que se apliquen los cambios y sigamos usando el servicio, la red social de Mark Zuckerberg asumirá que los hemos aceptado.
  • Nuestra cuenta puede darse de baja o desactivarse tanto si lo solicitamos nosotros mismos como de manera unilateral por parte de Facebook (por ejemplo, por un mal uso). La desactivación es temporal, es decir, podemos volver a Facebook y reactivar la cuenta sin que los datos se hayan perdido. En el caso de eliminar nuestra cuenta, Facebook eliminará nuestros datos aunque, eso sí, con la prerrogativa que comentábamos al inicio: las copias de seguridad se mantienen.
  • Aunque eliminemos nuestra cuenta del servicio, Facebook mantiene vigente algunas clausulas de sus condiciones de servicio y, además de mantener los backups, los likes que hayamos hecho o los contenidos que se hayan compartido como “públicos”.
  • Facebook es una empresa estadounidense, por tanto, la legislación que aplica es la de su país: la ley estadounidense de protección de los derechos de autor (Digital Millennium Copyright Act) o la ley de protección de la privacidad de vídeo (Video Privacy Protection Act, VPPA) y, en caso de demanda, el fuero que aplica es el del tribunal del Distrito Norte de California o en un tribunal estatal del Condado de San Mateo. Además, Facebook queda exenta de toda responsabilidad por nuestros actos y en caso de demanda por algo que hayamos hecho, ellos permanecerán al margen.
  • Facebook no ofrece garantías de disponibilidad del servicio ni tampoco se hace responsable de lo que hagan los usuarios, ellos redactan un código de conducta que intentan que se cumpla pero tampoco garantizan que esto vaya a ocurrir en el 100% de los casos.
  • Si Facebook no cumpliese alguna de sus clausulas, no pasa nada. Que Facebook no cumpla no invalida el contrato y si hay alguna clausula que no se pueda cumplir por motivos técnicos o legales tampoco pasa nada, todo lo demás sigue siendo de aplicación.

Si tras leer todo esto te queda alguna duda con respecto a tus derechos en Facebook, la red social lo resumen muy bien al final de su contrato: “Nos reservamos todos los derechos que no te hayamos concedido de forma expresa”.

Fuente: ALT1040

Supersoldados del futuro inspirados en Iron Man

Investigadores del Ejército de EEUU trabajan para desarrollar una armadura de alta tecnología que daría a los soldados “fuerza sobrehumana”, al más puro estilo de las películas de acción Iron Man.

Este tipo de armadura avanzada, llamado ‘Tactical Assault Light Operator Suit’ (Talos), será un exoesqueleto de protección avanzada que permitirá al soldado llevar equipo pesado y un potente ordenador, así como un sistema de monitorización de los signos vitales, explica el Ejército de EEUU.

Algunas de las tecnologías consideradas para Talos incluyen una armadura avanzada, equipos que permitan que el soldado sepa dónde está en todo momento en el campo de batalla y comunicarse con el comando, y un sistema de suministro de energía y esqueleto externo altamente móvil“, explica el Ejército .

El Comando de Operaciones Especiales de EEUU (US Special Operations Command, SOCOM), que supervisa los comandos de élite de la Armada -‘Navy SEAL’- y el Ejército -los ‘Rangers’-, han hecho un llamamiento a los investigadores para que desarrollen una “armadura inteligente de combate”.

Los proyectos podrán presentarse hasta septiembre de 2014. A continuación, el mando militar y los funcionarios del Pentágono decidirán cómo proceder teniendo en cuenta las limitaciones presupuestarias crecientes, dijo el portavoz del comando del Ejército para investigación, desarrollo e ingeniería, Roger Teel.

Esta futura armadura de combate también podría utilizar una suerte de “blindaje líquido” (parecido a lo que aparece en la película ‘Terminator’) pero esta tecnología todavía está en sus primeras etapas de desarrollo, afirmó Teel.

Se trata de la posible utilización de un líquido que se convierte en sólido con una carga magnética o eléctrica, de acuerdo con el proyecto desarrollado por científicos del Instituto de Tecnología de Massachusetts (MIT).

Hombres-máquina para el combate

Este proyecto forma parte de una tendencia de la investigación se centra en la interfaz hombre-máquina para multiplicar las capacidades de cada soldado.

Esta iniciativa fue impuldasa por el almirante William McRaven, jefe del Comando de Operaciones Especiales que se hizo famoso cuando lideró la incursión para matar a Osama bin Laden en mayo de 2011.

El almirante afirmó en julio que se sentía “muy unido” al proyecto. “Me gusta pensar que el último miembro de un comando caído en el campo de batalla será el último, y creo que podemos hacerlo”.

El proyecto será desarrollado conjuntamente por universidades, científicos que trabajan para agencias federales y empresas de tecnología, dijo James Geurts, jefe de adquisiciones. No obstante, aún es demasiado pronto para estimar el coste, agregaron los líderes militares del proyecto.

Un dato más: aunque reconocen que Talos recuerda a la armadura de Tony Stark en ‘Iron Man‘, el Ejército insiste en que la armadura del futuro, a diferencia del superhéroe, no será capaz de volar.

Fuente: El Mundo

PRISM: Así nos vigila EEUU en internet

Todos lo sospechábamos un poco, todos lo teníamos en cuenta. Así y todo, nuestro uso de las redes sociales, de los servicios web y de internet en general está enfocado en la comodidad que brinda su formato, con todos los costos que esto acarrea. Hoy internet volvió a demostrar que lo que provee no es gratuito y que detrás de los grandes cúmulos de usuarios, se esconde el oído ilegal y el ojo omnipotente de un estado que se cree la policía del mundo. PRISM es el programa por el cual nos vigila EEUU en internet, y a continuación te contamos todo lo que tienes que saber al respecto de un tema fundamental para comprender los tiempos en los que vivimos y el futuro de internet.

Las filtraciones de información no son un fenómeno de esta época, pero sí es en ésta donde sus consecuencias toman una relevancia inusitada en la historia de la comunicación social. Muchas veces pergeñadas por las propias empresas para crear bombo alrededor de una noticia (pues lo prohibido y oculto nos atrae como si fuera un agujero negro de curiosidad) y muchas otras tantas veces como consecuencia de la participación de espías, de empleados inescrupulosos, de fallas de seguridad y de gente tan curiosa como informativamente habilidosa, las filtraciones tienen un poder de desvelamiento que resulta imprescindible para saber qué es lo que nos ocultan. Justamente, los periódicos norteamericanos The Washington Post y The Guardian acaban de tomar en cuenta una filtración de la NSA, la Agencia de Seguridad Nacional (de EEUU), en donde se revela que el gobierno de Estados Unidos forma parte activa de un proyecto llamado PRISM, que tiene el objetivo de espiar a los usuarios de servicios como Facebook, Google, Microsoft y otros tantos centros neurálgicos de la red.

¿Qué es PRISM?

Con los ojos abiertos y la boca corrida a un costado en actitud sarcástica (a lo Mckayla, con el meme “not impressed”), encontramos que PRISM es un programa de la Agencia de Seguridad Nacional que funcionaba en absoluto secretismo utilizando un ingreso autorizado o no (ver más adelante) a los servidores de 9 de las compañías más importantes de la red. Entre ellas se listan a Microsoft, Yahoo!, Google, Facebook, PalTalk (proveerdor de internet), YouTube, Skype, AOL y Apple, tal cual y en el orden en el que aparecen en el documento. En información que no está confirmada, se habla de la inclusión futura de Dropbox. El informe en cuestión parecía estar destinado al entrenamiento de nuevos agentes de la agencia, como si fuera un manual en el cual se detallaban algunas de las actividades principales de este órgano del estado norteamericano.  El documento, un Powerpoint de 41 slides, se titulaba, según The Guardian, “la recolección [de datos] directa desde los servidores”, haciendo alusión a los principales proveedores de servicios de Estados Unidos.

¿Qué es lo que revisan?

Según indicaron los dos reconocidos sitios de donde surge la investigación, lo que PRISM buscaba era un acceso directo a la intimidad misma de los usuarios, allí donde pueden confiar y delatarse a sí mismos confesando crímenes o, especialmente, ideándolos junto a otros usuarios. Para esto, la NSA revisaba (suponemos que no manualmente, sino con software de data mining buscando patrones identificatorios de actividades ilícitas) los historiales de conversación, de búsquedas, las transferencias de archivos, los chats, las videoconferencias y mucho más de lo que queda almacenado de cualquier usuario interactuando en internet. Para hacer esto, la NSA no requería de ningún tipo de permiso judicial anterior a la acción de espionaje, lo que de por sí implica una violación a las leyes vigentes según la constitución estadounidense, incluida la tan mentada y siempre valorada 5ta enmienda.

El acceso de la NSA a la privacidad de las personas fue posible gracias a los cambios en la ley de vigilancia de EEUU, que se introdujo durante la presidencia de Bush y fue renovada con Obama en diciembre de 2012. Con la investigación y espionaje justificado legalmente, PRISM se dedica a la objetivación de presuntos casos de riesgo e inicia investigaciones sobre la privacidad de esa persona, atacando todos los frentes en donde su participación esté demostrada. Además del que resulta obvio de apreciar, el otro problema es que la NSA no sólo podría estar accediendo a la meta data, sino a la data en sí, según se pudo llegar a suponer luego de la interceptación del cable que hablaba de un pedido judicial a Verizon para que proveyera a los EEUU la información de más de varios centenares de miles de grabaciones de llamadas telefónicas domésticas. Es decir, no a los registros de llamadas a móviles, sino la grabación de la llamada en sí. Sobre esto hay contrapuntos, pues The Washington Post indica que el pedido formal es por la meta data de esas comunicaciones. Es decir, la hora del día en la que fue realizada, a qué número y cuál fue su duración.

De todas maneras, las suspicacias crecen cuando hay que considerar que en 2006 ya había tomado conocimiento público una filtración sobre un cuarto especial que la NSA tenía en la compañía telefónica AT&T. Como siempre, la legalidad de este tipo de programas está en disputa, aunque el programa parece estar basado en la Sección 215 de la Ley Patriota, que permite al gobierno obtener los registros de negocios o actividades que son relevantes para una investigación en curso contra el terrorismo. De hecho, y como para no quedarnos en que puede ser meramente un título mediático, hasta el momento, más de 77 mil reportes de inteligencia habían citado al programa PRISM como fuente de sus datos.

Nos orinan y dicen que llueve: el papel de las compañías en PRISM

Aunque la presentación especifica que se ejecuta con la ayuda de las empresas espiadas, todas las compañías que fueron mencionadas en esta investigación han enviado cartas y comunicados expresando que no forman parte activa de PRISM y que de hecho no sabían de su existencia. Siendo un poco más específicos y aclaratorios, Google –a través de su co-fundador Larry Page– anunció que “Google se preocupa profundamente por la seguridad de los datos de nuestros usuarios. Revelamos los datos de un usuario al gobierno de acuerdo a la ley, y revisamos cada pedido de manera cuidadosa. De cuando en cuando, la gente alega que nosotros hemos creado una puerta trasera en nuestros sistemas para que los aproveche el gobierno, pero Google no tiene una puerta trasera por la cual el gobierno obtiene acceso a los datos privados de los usuarios.“

Tanto Google como muchos otros cabezas del rubro informático han dicho que no tienen idea de PRISM y que si están llevando a cabo esas acciones en sus servidores, lo están haciendo sin el conocimiento y permiso de los grandes sitios web. Desde Facebook salieron a decir que “no forma ni ha formado parte de ningún programa que le dé a Estados Unidos o cualquier otro gobierno, acceso directo a nuestros servidores. Nosotros nunca hemos recibido una petición o una orden judicial de ninguna agencia gubernamental solicitando información o metadatos a granel, como el que Verizon ha recibido.»

Todo lo dicho por las empresas participantes de este drama se pone en duda desde varios periódicos con investigaciones propias, apelando al archivo. Por ejemplo, desde el New York Times, se indica que las compañías no sólo obedecieron a la NSA y a sus demandas, sino que también contribuyeron con ella generando un acceso directo a los servidores. Para probarlo, estos indican algunas conversaciones entre los responsables de los 9 sitios en la mira y el gobierno de los EEUU en el marco de la ley FISA de 2008, en la que se legitimaban los pedidos de información privada en un caso legal en curso. Así y todo, y siendo Microsoft la primera en colaborar y Twitter una de las únicas que no lo aceptó nunca, los sitios dijeron que no tenían una puerta trasera para el gobierno y que no conocían o conocían muy poco a PRISM.

Aquí es cuando se pone interesante, pues en lugar de añadir una puerta de acceso a sus servidores, a las empresas se les pidió esencialmente que erigieran un buzón de correo con llave, la cual sólo tendría el gobierno. En otras palabras, el gobierno no tiene un acceso directo a los servidores de las compañías, pero sí tiene un depósito de información privada que es manejada en conjunto con los dueños del sitio. Según mencionó un allegado a las negociaciones entre las partes, Facebook, por ejemplo, construyó un sistema de este tipo para solicitar y compartir la información. La falta de una fuente confiable y no un abstracto informante hace dudar, pero los indicadores de participación mutua están presentes, además de siempre sospechados por el usuario promedio de redes sociales que nos preguntan hasta cuánto calzamos.

Obama justifica a PRISM

Como no podría ser de otra manera cuando algo se hace tan evidente, la negación no fue la estrategia escogida en Washington, sino la defensa del cuestionado programa. El pasado viernes, Obama decía, validando automáticamente todos los rumores que había sobre la veracidad de PRISM, “Creo que es importante reconocer que no se puede tener el 100% de seguridad y al mismo tiempo un 100% de privacidad, además de ninguna incomodidad. Tenemos que tomar ciertas decisiones como sociedad“. De todas maneras mencionó que nadie está escuchando las conversaciones telefónicas de las personas, pues “ese no es el objetivo de este programa. Lo que la comunidad de Inteligencia está haciendo es identificar esas llamadas estudiando los números de teléfono y la duración de las llamadas. No se miran los nombres de la gente, y no se fijan en el contenido de las llamadas“. Otro comentario de Obama fue para indicar que las personas investigadas son mayoritariamente extranjeras, dando a entender que el principal motivo es la lucha contra el terrorismo.

En este sentido, es necesario comentar que según una reciente actualización de la información por parte de The Guardian, EEUU no estaría solo en la planificación y desarrollo de PRISM, pues la agencia de seguridad del Reino Unido (GCHQ) también está comprometida, obteniendo información directamente desde PRISM. Los documentos muestran que GCHQ, con sede en Cheltenham, ha tenido acceso al sistema por lo menos desde junio de 2010, y ha generado 197 informes de inteligencia desde el año pasado.

La punta del iceberg

Además de la hipocresía de EEUU al criticar la actividad cibernética, la censura y los controles de China sobre internet, la existencia de PRISM y programas similares trabajando de forma más secreta y paralelamente plantean problemas éticos y legales sobre el potencial acceso directo a la intimidad de millones de usuarios de Internet. Y que se sepa que no sólo son usuarios, sino también consumidores que pagan por servicios y que firman acuerdos de seguridad que de ahora en más tendrán que leer más atentamente en busca de los grises y vacíos legales que permiten esta embestida de la policía del mundo sobre las actividades de las personas, dando vuelta la carga de la prueba y entendiendo a cada uno de los usuarios como culpables hasta que se demuestre lo contrario. Ese, se los aseguramos, es un mundo en el que no queremos vivir, y algo vamos a tener que empezar a hacer al respecto.

Fuente: NEOTEO

Tecnología de vigilancia urbana hace realidad la pesadilla distópica de 1984

Una industria de mapeo de Chicago podría identificar un objeto a ras de tierra con hasta dos centímetros de margen de error, elevando serias dudas sobre la privacidad y uso de dicha información.

Todos conocen la historia: Big Brother, la materialización de la burocracia en la hipermodernidad (traída a la  vida en la novela 1984 de George Orwell) es el sistema maestro de vigilancia donde cada movimiento de los ciudadanos está controlado y vigilado las 24 horas del día. Una compañía llamada CityScan podría hacer que esto fuera una realidad cotidiana este mismo año en algunas ciudades.

Orlando Saez es un empresario y director financiero de CityScan. Afirma que la idea de un sistema de mapeo y vigilancia es algo que los gobiernos del mundo ya utilizan en mayor o menos escala, y que su compañía “simplemente lo hará más simple”. Todo empezó cuando una empresa de bienes raíces fue contactada por otra empresa de anuncios espectaculares, interesados en colocar publicidad en sus propiedades, en la ciudad de Chicago. La empresa de bienes raíces pasó por un proceso burocrático tremendo intentando sacar el permiso. Eventualmente, dice Saez, vieron que “era más sencillo pedir perdón que pedir permiso”.

¿Qué pasaría si el gobierno de una ciudad pudiera monitorear los espacios públicos todo el tiempo utilizando tecnología de mapeo para saber dónde se encuentran todos los anuncios espectaculares ilegales? En Chicago, este problema concreto suma entre 25 y 30% de todos los anuncios, lo que representa una pérdida de la recaudación presupuestaria de la ciudad estimada en unos $2.5 millones de dólares; además de que dicho sistema permitiría eficientar la vigilancia en las 4,300 millas donde dichos anuncios podrían colocarse.

Pero este es sólo uno de los usos posibles de CityScan: mediante un acuerdo estratégico de utilización de la red de mapeo de Nokia, además de la tecnología de localización de Ruettiger, Tonelli & Co., CityScan puede identificar la localización de un objeto “con dos centímetros de margen de error”, ya se trate de anuncios espectaculares, signos viales y cualquier cosa que uno quiera encontrar.

En una entrevista con el gerente de social media de CityScan, Matthew Zwiebel, la sola insinuación de que esta tecnología podría producir riesgos para la privacidad de la gente, este contestó: “¿Quieres que mencione a ‘Big Brother’ o quieres hacerlo tú?”, lo que demuestra que la compañía no ha sido ajena a las críticas.

A pesar de esto, CityScan ha atraído hasta $1.5 millones de dólares en capital de riesgo de inversionistas potenciales. Zwiebel afirma que “tener un entendimiento del espacio público y sus estructuras y hacer un inventario de ello es algo que las ciudades ya están haciendo. Nosotros sólo lo hacemos mucho, mucho más fácilmente”.

No se trata de dudar de cada nueva tecnología que aparezca, pero en este caso es válido preguntarse por la ética de las personas que en última instancia utilizarán los servicios de CityScan y sobre la información que como ciudadanos permitimos poner a disposición del gobierno. Un ojo en el cielo nos vigila, y tal vez la más nueva encarnación de Big Brother será algo que ya lleva mucho tiempo sobrevolando el planeta: los satélites. Puede ser que el “Gran Hermano” no sea solamente un gobierno o una persona, sino un cúmulo de individuos y empresas  tratando de hacer más dinero.

Fuente 1: The Verge

Fuente 2: Pijamasurf.com

Fuente 3: 1984

Qué es la Ley Lasalle y en qué se difererencia de la Ley Sinde

Hoy el Consejo de Ministros ha aprobado la Ley Lasalle, una nueva reforma de la Ley de Propiedad Intelectual, que actualiza y endurece la conocida como Ley Sinde, siendo esta una disposición particular de la propia Ley de Economía Sostenible que propuso el Gobierno de Rodríguez Zapatero en 2009.

La reforma de hoy supone la continuación de la agenda de modificaciones sobre la legislación en materia de derechos de autor. Esta llega tras la aprobación hace un año del Reglamento de la Ley Sinde, conocido como la Ley Sinde-Wert (que pondría en marcha en junio de 2012 la Comisión de la Propiedad Intelectual, encargada de abrir expedientes a las primeras páginas web que enlazaran, supuestamente, contenidos sujetos a derechos de autor)

A continuación explicamos las claves de esta nueva reforma de la legislación española en materia de propiedad intelectual, en otras palabras, qué es la Ley Lasalle y qué diferencias hay con regulaciones anteriores, como la Ley Sinde. Como curiosidad, añadir que esta reforma no se conoce como “Ley Wert”, si no que hace referencia al Secretario de Estado de Cultura, José María Lasalle, del propio Ministerio de Educación, Cultura y Deporte que dirige José Ignacio Wert.

Mayor censura en la red

Con esta nueva Ley Lasalle, cualquier web de enlaces que “haya causado o sea susceptible de causar un daño patrimonial a los titulares de derechos de autor” podrá ser retirada. Ello a pesar de que estos sitios web no alojen contenidos, y sí lo hagan en servidores extranjeros. Con la reforma en la mano, será más fácil actuar contra este tipo de páginas.

Sin embargo, se contempla la excepción de buscadores como Google, que enlacen “de manera ocasional” contenidos, contra los que no podrán actuar.

En palabras del ministro Wert en el Consejo de Ministros de hoy, lo que diferencia a esta reforma de la Ley Sinde es que “distingue bien deliberadamente el uso ilícito y lucrativo de la tecnología cuando abusa de los derechos de propiedad intelectual”.

Identificación de “infractores” por operadores de telecomunicaciones y empresas de publicidad

Otro de los aspectos controvertidos de esta Ley Lasalle es el que dota a los operadores de telecomunicaciones y empresas de publicidad del papel de vigilantes de la red. El principal objetivo es que cualquier empresa que tenga relación con una “página pirata” deba identificar a los infractores (agilizando su bloqueo).

Cambio en la definición de copia privada

En 2006, se definió la “copia privada” como “la copia que se hace en el ámbito privado, y por lo tanto legal, solo si se hace a partir de obras a las que se haya accedido legalmente”. Este último inciso deja fuera claramente a las copias realizadas a partir de las descargas de Internet, aunque jurídicamente sea entendido como un concepto impreciso.

La Ley Lasalle termina con el debate legal existente, también planteado en otros países como Alemania o Austria, favoreciendo explícitamente a la industria de los contenidos. En la nueva reforma, se menciona expresamente qué significa “acceso legal”, restringiéndolo a “aquellas copias que se hagan de un soporte original, por lo que la obra ha de estar en un soporte, y siempre que se haya adquirido de forma previa en propiedad”.

Así se excluyen del concepto legal de “copias privadas” a aquellas obtenidas a través de Internet, pero también a las copias que puedan realizarse de material alquilado o prestado (en otras palabras, será ilegal copiar una obra que te haya dejado un amigo).

Gravar a las Universidades: la vuelta de tuerca del canon digital

Otra de las grandes polémicas que trae esta reforma es el traslado de una parte del canon digital, que actualmente sale de los Presupuestos, a las Universidades. Con la ley en la mano, se obliga a los centros académicos a que deban pagar a CEDRO (que para más inri, fija libremente los precios) por la reproducción de contenidos (aunque esta se haga con fines educativos y/o divulgativos).

Refuerzo de la Comisión Sinde

La Ley Lasalle además “pone por escrito” algunas de las funciones de la Comisión de la Propiedad Intelectual, que ve reforzado su poder al convertirse en una especie de “tribunal de excepción para los casos de la propiedad intelectual”.

No sólo podrá ir contra las famosas “páginas de enlaces”, si no contra todas las webs que hayan sido denunciadas por vulneración de derechos de la propiedad intelectual. Esto significa que todas las páginas deberían vigilar también los contenidos aportados por los propios usuarios (por ejemplo en el caso de los foros), para evitar que se introdujeran contenidos o enlaces “ilegales”. Esta parte de la Ley es bastante cuestionable ya que existen argumentos que explican que es contraria a la propia Directiva 2000/31/CE de la Unión Europea.

La Comisión no sólo podrá exigir a la web denunciada la retirada del contenido específico (o incluso la posibilidad de cerrar páginas sin autorización judicial), si no que también podrá imponer multas económicas con sanciones de entre 150.001 y 600.000 euros.

Supervisión de las sociedades de gestión de los derechos de autor

Tras los escándalos existentes en entidades como la SGAE, la Ley Lasalle también incluye cláusulas con el objetivo de reforzar la transparencia de dichas sociedades. Estarán obligadas, entre otras cosas, a realizar auditorías de su funcionamiento, y al establecimiento de escalas para las diferentes sanciones económicas en caso de infracción.

Esa nueva reforma de la propiedad intelectual supone un endurecimiento de los planteamientos de la Ley Sinde, no adaptando en ningún caso la LPI a la nueva realidad digital en la que vivimos. La creación de un escenario muy poco competitivo para el sector digital, reduciendo las posibilidades de crecimiento del desarrollo tecnológico y cultural, son sin duda malas noticias para nuestra economía.

Fuente: ALT1040

Stuxnet fue desarrollado por el gobierno de Estados Unidos

El periodista David E. Sanger, del New York Times, acaba de revelar que el gobierno de Estados Unidos junto con el de Israel fueron los responsables del desarrollo del virus informático “Stuxnet“, con el que se atacó de forma cibernética instalaciones nucleares en Irán. Si bien seguramente más de cuatro lectores de NeoTeo suponían que algo así había ocurrido, el trabajo de Sanger aporta pruebas de este hecho, y desvela un programa secreto con el nombre clave de “Juegos Olímpicos” que se remonta a la administración de  George W. Bush.

No eran pocos los que sospechaban de que algo así podía ocurrir, pero nadie -hasta ahora- había sido capaz de aportar pruebas que avalasen esa versión. Todo a cambiado gracias al bombazo informativo que  ha lanzado el periodista David E. Sanger al publicar un artículo nada más ni nada menos que en el prestigioso diario New York Times, en el que se desvela como el gobierno de su país, junto al de Israel, desarrollaron el virus informático “Stuxnet”, con el que se atacó de forma cibernética las instalaciones nucleares en Irán. El artículo en realidad es el resumen de un libro intitulado “Confronta y esconde: Las guerras secretas de Obama y el sorpresivo uso de poder estadounidense” que Sanger espera publicar en las próximas semanas. Según esa nota, el presidente Obama avaló y aceleró un programa secreto denominado “Juegos Olímpicos”, lanzado por su predecesor George W. Bush, cuyo objetivo final era el desarrollo de virus informáticos destinados a atacar el programa de enriquecimiento de uranio de Irán.

De hecho, cuando se conocieron detalles del virus Stuxnet, algunos especialistas entre los que se encontraban ingenieros de la empresa de seguridad Kaspersky dieron a entender que detrás del ataque a la planta nuclear Natanz en Iran sólo había sido posible gracias a la ayuda de algún gobierno, pero en realidad nadie se había atrevido a asegurarlo públicamente. Recordemos que Stuxnet, a diferencia de otros programas del tipo “malware” que vemos habitualmente, tenía un blanco muy específico y concretamente se dedicaba a buscar unos dispositivos de Siemens utilizados para controlar las centrifugadoras utilizadas en Irán para el enriquecimiento de uranio. La idea detrás de este virus era provocar un mal funcionamiento de estos aparatos, estropeándolos y retrasando el programa nuclear de ese país. Los expertos de Kaspersky dedujeron que el Stuxnet era capaz de variar la velocidad de giro de estas máquinas, provocando fallos en el sistema. Aparentemente, el 20% de las centrifugadoras del complejo de Natanz quedaron fuera de servicio culpa de este virus, que consiguió pasar desapercibido durante dos años, hasta ser descubierto en 2010.

Obviamente, la idea detrás de un engendro como Stuxnet es muy simple: afectar al enemigo  sin que se lleve a cabo una acción militar abierta. Durante años los expertos estadounidenses hicieron declaraciones sobre la posibilidad de que en el futuro tuviesen lugar acciones de este tipo, algo que ahora, a la luz de los hechos, parece tener un sólido fundamento: estaban hablando de una posibilidad real, refiriéndose a un problema que conocían perfectamente bien, ya que ese país estaba trabajando activamente (desde hace años) en un proyecto de esta naturaleza. Sin embargo, y a pasar de todo lo expresado por David E. Sanger, el malware “Flame”, recientemente descubierto por Kaspersky, no habría sido desarrollado en el mismo marco que el Stuxnet. Está claro que éste será un tema caliente durante los próximos meses.

Fuente 1: New York Times

Fuente 2: NeoTeo

Geo ingeniería promete blanquear el cielo y frenar el calentamiento global

Flickr / Miss Laid Plot – La tecnología geo ingenieril, que los científicos proponen introducir para suspender el calentamiento global, puede blanquear el firmamento.

La tecnología, que consiste en ‘tirar’ partículas de sulfato en la alta capa de la atmósfera para reflectar los rayos solares, puede hacer que el cielo sea más blanco, informan los científicos. La misma naturaleza confirmó este concepto: en 1991 la erupción del volcán Pinatubo en Filipinas emitió en la atmosfera toneladas de partículas de sulfato y blanqueó el cielo por un período de tiempo.

En su reciente estudio, los científicos del Instituto Carnegie de Washington trataron de estimar cuán grande será el efecto de la tecnología de geo ingeniería.

Emitiendo bastante sulfato en la atmósfera para bloquear el 2% de los rayos solares puede hacer el cielo de 3 a 5 veces más blanco, afirman los científicos. El control del nivel de sulfato representa una medida necesaria para suspender el calentamiento global si el nivel del dióxido carbónico se acerca a la cantidad de 560 ppm (partidas por millón). El nivel de dióxido carbónico hoy cuenta con 390 ppm.

La gente que vive en Nueva York no va a notar nada, pero la gente que reside en las montañas sí va a notar el cambio”, explica Ben Kravtz, uno de los investigadores. “También la introducción del sulfato –de origen natural o artificial – favorece al crecimiento de las plantas y como resultado aumenta el volumen del carbono absorbido por las plantas”.

Fuente 1: Russia Today

Fuente 2: 1984NWO.net

Freenet: Más allá de la Web

En este mismo momento en el que lees estas líneas, existe una red en operación que privilegia, por sobre todas las cosas, la libertad de expresión y el anonimato. Por supuesto, ambas son armas de doble filo, debido a que aquello que le da a alguien perseguido una vía para expresarse, también puede ser usado por los peores representantes de nuestra raza. Freenet no es solamente una red p2p que evita la censura. Es un ejercicio ético que llega en un momento en el cual se puede observar el más elaborado movimiento por parte de las autoridades para controlar a la Web. Neutralidad en la red en una de sus máximas expresiones. Si crees estar listo, echa un vistazo.

Libertad de expresión y censura. Intercambio de archivos y piratería. SOPA, PIPA, ACTA, OPEN. Control y libre albedrío. 2012 nos arrojó todo esto a la cara, y la situación no va a cambiar en el corto plazo. Los gobiernos buscarán, de una forma u otra, aplicar cierto nivel de control sobre la Web. Los usuarios volverán a reaccionar de forma similar a la vez del apagón, y obviamente, los elementos más radicales se expresarán con acciones más agresivas. Parece un círculo vicioso, y nadie está dispuesto a ceder. Sin embargo, casi siempre se olvida el hecho de que la innovación surge de la necesidad. Si mañana la Web se convierte en una red llena de candados y sistemas de vigilancia, los usuarios tendrán alternativas. Usarán las ya existentes y se adaptarán a ellas, o crearán nuevas desde cero. Una de estas alternativas es Freenet, un proyecto que lleva cerca de doce años entre nosotros, y del cual hemos hablado en el pasado.

La aventura en Freenet comienza escogiendo el nivel de seguridad. Al no tener contactos en la red, sólo la opción de baja seguridad es viable.

He leído en varias ocasiones que Freenet se presenta como un reemplazo a BitTorrent. Freenet es en esencia una red P2P, por lo cual compartir archivos es una de sus tantas funciones, pero estaríamos en un error si consideramos a Freenet únicamente para el rol de plataforma de intercambio. Imagina a Freenet como una especie de caché gigantesco, distribuido a través de todos sus nodos. Al trabajar de esta forma, quien ha publicado un sitio o colgado un archivo no está obligado a mantenerse en línea para compartirlo. El contenido de Freenet es repartido entre los nodos al momento de su carga, y cuando alguien realiza una solicitud, se obtiene un trozo de cada uno de ellos. No hay conexiones directas ni reconocimiento de nodos, garantizando así un alto nivel de anonimato. Como si eso fuera poco, Freenet posee varios niveles de seguridad, que parten desde dos tipos de conexión: Opennet y Darknet. El primero le da a Freenet un comportamiento de conexión más abierto, con todos los usuarios conectándose entre sí. Por otro lado, Darknet funciona al conectarse solamente entre amigos y conocidos que hayan intercambiado sus “referencias de nodo”, un equivalente a una clave pública.

Freenet requiere tanto de espacio en disco como de ancho de banda. Para un mayor rendimiento, trata de compartir todo lo que puedas.

La primera impresión tal vez parezca un poco frustrante, pero en realidad es muy sencillo acceder a Freenet. En el caso de Windows, lo único que debes hacer es descargar su instalador, para luego configurar algunos parámetros adicionales. Los desarrolladores recomiendan que utilices un navegador diferente para recorrer a Freenet, y en caso de que poseas a Google Chrome instalado, Freenet lo usará por defecto en Modo Incógnito. No se recomienda la utilización de Internet Explorer, pero aquellos que prefieran navegar con Firefox u Opera, lo único que deben hacer una vez que Freenet está instalado y ejecutándose, es ingresar la dirección “http://127.0.0.1:8888”. Luego deberás escoger si deseas conectarte por Opennet o Darknet (si no conoces a nadie, Opennet será tu primera opción), la cantidad de espacio en disco asignada a la “tienda de datos” (puedes comenzar con 1 GB), y finalmente, cuánto ancho de banda estás dispuesto a compartir. Freenet no debería usar más de la mitad disponible, por lo tanto, puedes escoger una de las entradas preestablecidas, o ingresar los valores manualmente. Un detalle a tener en cuenta es que tanto Opennet como Darknet tienen un puerto UDP asignado. Aunque no estás obligado a abrir estos puertos en tu router, se recomiendia para obtener un mejor rendimiento.

La apertura de puertos no es crítica, pero sí recomendada

No hay lugar a dudas cuando decimos que Freenet tal vez sea una de las mayores expresiones de neutralidad en la red. ¿Por qué? Porque dentro de Freenet encontrarás todo lo que se puede esperar de la Web (si bien en menor cantidad), de un extremo al otro. Desde blogs personales, portales con información técnica y sitios dedicados a causas como Occupy Wall Street, hasta descargas de warez y pornografía en todas sus variantes, legales e ilegales. Su buscador (que dicho sea de paso no funciona tan bien) no posee ninguna clase de filtro, por lo que en ciertos momentos sentirás que navegas en una verdadera anarquía. Freenet ofrece libertad de expresión, solo que en una versión destilada y concentrada. Algunas cosas pueden caerte mal, y la misma red lo advierte a cada paso con mensajes de “Ten Cuidado”. Varios portales no han sido actualizados en un largo tiempo, un detalle que tal vez confirma el perfil experimental de Freenet. Puede que algunos simplemente hayan creado un sitio para ponerlo a prueba en Freenet, y lo hayan abandonado al poco tiempo. En cambio, los sitios más importantes reciben varias actualizaciones diarias. Tu primera parada será Linkageddon, un concentrador de enlaces a todo lo que está en Freenet, sin importar la fecha de publicación, el contenido o su origen.

Esto sería similar al concepto de "página principal" en Freenet

Se dice que la seguridad es incómoda, y que la privacidad tiene su precio, más allá de que ese precio no tenga relación con dinero. No podemos negar que Freenet es relativamente fácil de usar y requiere de una configuración mínima (a menos que operemos bajo un entorno no convencional), pero debido a su naturaleza anónima, el punto más débil de Freenet es la velocidad. La gran mayoría de los sitios presentes en la red trabajan con texto plano, por lo que ofrecen una carga relativamente rápida, y no encontrarás animaciones pesadas ni nada que se le parezca, pero hasta la carga más sencilla de imágenes será todo un ejercicio de paciencia. Hay muchos factores que influyen directamente sobre la velocidad de Freenet, sin embargo, aún asignando la mitad de mi conexión (tanto de subida como de bajada), debo decir que la experiencia fue regular en el mejor de los casos. Ahora, si un archivo o un sitio es extremadamente popular, adquiere cierta “prioridad” de descarga, haciendo que su acceso sea más veloz. Eventualmente, cuanto más tiempo pases dentro de Freenet, y más espacio y ancho de banda compartas, mayor será la velocidad. Cuánto tiempo hay que esperar es algo que honestamente no puedo responder, pero en el sitio oficial hablan de un promedio de 24 horas para que la conexión alcance su máximo potencial.

Esto es Linkaggedon. Hay algunas cosas muy fuertes ahí dentro.

Bien, ahí lo tienes. Freenet está al alcance de tu mano, y sólo eres quien tiene el poder para decidir usarlo. ¿Es acaso una herramienta adecuada para utilizar diariamente? Teniendo en cuenta un detalle como el rendimiento, la primera respuesta que nos viene a la mente sería “no”, pero eso en realidad depende de las circunstancias a las que el usuario debe enfrentarse. En Occidente aún contamos con una importante capacidad de expresión, y estamos luchando para que eso no cambie. Por otro lado, hay países en los cuales una persona puede ser extraída de su hogar en plena noche y detenida por las autoridades por haber escrito algo con su teclado que no le cayó bien a un funcionario del gobierno. Hay reportes de que Freenet está siendo utilizado en China, pero la forma en la que trabaja la red impide tener registros precisos. Para finalizar, creo que velocidad y comodidad a cambio de anonimato y libertad de expresión es un intercambio más que razonable para quien necesite o acepte realizarlo, y no es algo que solamente se aplique a la red Freenet, sino también a otras tecnologías como es el caso de Tor. Espero que Freenet te sea útil, pero hablando un poco con el corazón, espero que nunca tengas que usarlo.

Sitio oficial y de descarga.

Fuente: NEOTEO

Un nuevo proyecto sobre ‘ciberseguridad’ en EEUU desata otra vez las alertas en Internet

Los legisladores estadounidenses vuelven a la carga con un proyecto de ley de ‘ciberseguridad’ que algunos grupos de activistas consideran aún más restrictiva que el polémico proyecto antipiratería SOPA-PIPA, que sufrió el revés de una movilización en la Red sin precedentes ante la amenaza de aumentar dramáticamente el control -tanto del Gobierno como de las corporaciones- sobre Internet.

El proyecto HR 3523 o CISPA (Cyber Intelligence Sharing and Protection Act), que se encuentra en la Cámara de Representantes de EEUU, se está ganando fuertes críticas de ciberactivistas que ven en él una reencarnación de SOPA, aunque de forma aún más restrictiva. Se espera una votación para las próximas semanas.

Lo cierto es que este texto -presentado a finales del año pasado por los representantes Mike Rogers y Ruppersberger– no sólo se centra en la protección de la propiedad intelectual, sino que abarca además un amplio abanico de supuestos bajo el paraguas genérico de ‘seguridad cibernética nacional’.

Propone, de hecho, una revisión de la normativa de seguridad nacional (National Security Act ) de 1947 para fomentar un mayor intercambio de información sobre ‘ciberamenazas’ entre el Gobierno de los EEUU y el sector privado, o entre las propias empresas privadas.

La definición de “información sobre ciberamenazas” se amplía en este proyecto a cualquier información relativa a vulnerabilidades o amenazas a las redes o sistemas de propiedad y/o operados por el Gobierno de EEUU o empresas estadounidenses, así como cualquier intento por “degradar, interrumpir o destruir” tales sistemas o redes, además del robo o la “apropiación indebida” de información privada o gubernamental, incluida (y aquí entra la comparación con SOPA) la propiedad intelectual.

Este amplísimo proyecto va más allá y prevé eliminar cualquier responsabilidad a las empresas que recopilan y comparten información entre ellas o con el Gobierno por motivos de seguridad.

La lista de apoyos a este polémico proyecto de ley es extensa (PDF) y cuenta con más de un centenar, entre los que destacan gigantes tecnológicos que manejan información muy sensible como IBM, Verizon, AT&T, Microsoft e incluso Facebook.

Ola de críticas

Numerosos grupos han puesto el grito en el cielo. El Centro por la Democracia y la Tecnología alertaba ya en diciembre que el proyecto de ley apenas delimita qué tipo de información se puede compartir -a pesar de la protección de la privacidad-, podría aumental el papel del Gobierno como vigilante de la Red y permitiría el intercambio de información entre empresas con muy pocas restricciones.

Entro otras acciones, el propio CDT propone una serie de pasos para preservar la libertad en Internet, tales como no usar la seguridad para justificar una barra libre en la interceptación de comunicaciones, evitar el abuso de las agencias secretas, no autorizar en general a las compañías para monitorizar a sus clientes y evitar sacrificar la neutralidad de la Red en aras de la ‘ciberseguridad’.

Ahora, la Electronic Frontier Foundation (EFF) destaca que el Congreso de EEUU, al considerar este proyecto está anteponiendo la ‘ciberseguridad’ a la privacidad, dado que el texto prevé dar a las compañías luz verde para monitorizar y retener todas las comunicaciones (como mensajes de texto o correo electrónico) y compartirlo con el Gobierno o entre ellas bajo la excusa de unas indefinidas “amenazas de ciberseguridad“.

Nube de proyectos

De hecho, tanto CDT como EFF alertan de que existe una confusa nube de proyectos de ley sobre ‘ciberseguridad’ en EEUU aparte de CISPA (H.R. 3674, S. 2105 y S. 215, además de un proyecto contra la pedofilia, H.R.1981, que incluye la posibilidad de rastrear indiscriminadamente la Red) que plantean varios interrogantes. ¿Quién estará a cargo de este asunto, el poder civil o el militar? ¿Será su gestión transparente?

¿Y qué es exactamente una ‘amenaza cibernética’? La EFF también denuncia la indefinición de este término, así como del concepto ‘intercambio de información’, “a menudo un eufemismo para la vigilancia y el establecimiento de contramedidas como la monitorización del correo electrónico, el filtrado de contenidos, o el bloqueo del acceso a sitios web“, afirma el grupo activista.

Legislar sobre ‘ciberseguridad’

La ‘ciberseguridad’ está siendo la bandera que están enarbolando muchos Gobiernos occidentales para plantear actualizaciones y nuevas normativas encaminadas a vigilar más de cerca la Red. Recientemente, el Gobierno Británico, preocupado desde hace años por las crecientes amenazas cibernéticas, anunciaba una ley para monitorizar Internet, las llamadas telefónicas, los correos electrónicos, los mensajes en las redes sociales y las visitas a sitios web, un paso “necesario” según el Ejecutivo.

Incluso Francia quiere ir más allá en la monitorización de la Red con la excusa de prevenir atentados terroristas. Justo después de la tragedia de Toulouse en la que un supuesto terrorista yihadista mató a siete personas, de los que seis eran niños, en una escuela judía en Toulouse.

Así, y en plena campaña electoral, el presidente francés, Nicolas Sarkozy, anunció un endurecimiento de la legislación francesa que recogerá, entre otras medidas, castigos por la mera consulta de páginas web que inciten al terrorismo.

Fuente: El Mundo

Página siguiente »