Gonzalo Anti New World Order


Condiciones de Facebook: todo lo que aceptaste sin leer, explicado de forma clara

Esta semana Facebook, la gran red social, ha cumplido 10 años. Con más de 1230 millones de usuarios activos, la red social de Mark Zuckerberg se ha convertido en uno de los servicios de mayor peso en la red; un lugar en el que es fácil registrarse pero que, sin embargo, nos ofrece un “contrato” que no todos los usuarios leen ni tampoco conocen.

Las condiciones de servicio, también conocidas como “términos de servicio” o ToS, son una serie de clausulas que encontramos cuando nos registramos en un servicio, vamos a usar por primera vez una aplicación o estamos instalando un software. Clausulas escritas, normalmente, en lenguaje jurídico (o pura verborrea legal, según se mire) y que describen cuáles son las condiciones de uso de un servicio determinado, qué se hace con nuestros datos, qué responsabilidades tenemos o qué obligaciones tiene el prestatario de los servicios.

Si bien sería lógico que este tipo de clausulas fueran fáciles de entender por los usuarios, la realidad es que están redactadas para ser un galimatías de tal calibre que los usuarios las aceptan sin revisar y sin leer. Si en Celularis hace unos días hablaron de las condiciones de WhatsApp y de las clausulas que los usuarios aceptaban sin leer, no es el único servicio que “casi” nos hace vender nuestra alma para poder usarlo; cualquiera de las redes sociales que usamos también tienen sus clausulas abusivas y, dado que en esta semana Facebook ha cumplido 10 años, vamos a poner el foco en la red social de Mark Zuckerberg para analizar qué condiciones hemos aceptado en Facebook, seguramente, sin haberlas leído.

Navegar y navegar por las clausulas

Las clausulas que definen las condiciones de Facebook, afortunadamente, están en castellano y, por tanto, se rompe un poco la barrera del idioma. Sin embargo, a pesar de la traducción, Facebook deja claro que lo que estamos leyendo es una traducción de un texto escrito en inglés de Estados Unidos y que, por tanto, el que prevalece como vinculante (el que aceptamos como contrato) es la versión en inglés así que si hay errores en la traducción no se tienen en cuenta desde el punto de vista de Facebook.

Partiendo de esta base, el texto que encontramos en las condiciones de Facebook, y que nadie suele leer, está estructurado en 19 bloques que, a su vez, se expanden por un buen número de páginas “aclaratorias” con más ramificaciones y que intentan explicar (aunque es fácil perderse entre tanta página) qué es lo que hace Facebook con nuestros datos y con la información que generamos en su plataforma.

Tus datos, mis datos, nuestros datos

  • Aunque Facebook indique que somos los propietarios de los derechos de los contenidos que subimos (nuestras fotos, nuestros vídeos…), la red social de Mark Zuckerberg se auto-atribuye una licencia de uso mientras seamos usuarios del servicio y, por tanto, puede usar nuestros contenidos o los que generemos en aplicaciones conectadas con Facebook. Dicho de otra forma, cuando subimos una foto a Facebook, el servicio tiene derecho de usarla y puede mostrar nuestra foto de perfil en el widget que se usa en una web o usar un vídeo subido en otra sección aunque, eso sí, la visibilidad de los contenidos depende de nuestra propia configuración de privacidad (y si hemos acotado la visualización de los contenidos que hemos publicado).
  • Cuando eliminamos un contenido de Facebook, no es descabellado pensar que éste desaparezca de la red social; sin embargo, las cosas no son tan simples. Facebook nos avisa que aunque borremos algo puede que no desaparezca del todo porque, como buena empresa tecnológica, guarda copias de seguridad de sus bases de datos y contenidos y los retiene durante un tiempo para poder recuperar información. Por tanto, aunque borremos algo, lo más seguro es que Facebook lo siga conservando.
  • Que una aplicación acceda a nuestros datos, según Facebook, es algo que depende de nosotros. Facebook se asegura de mostrar qué información y acceso requiere la aplicación conectada y queda de nuestro lado aceptar estas condiciones de la aplicación (y compartir nuestra información con un tercero).
  • Por el hecho de usar Facebook, los usuarios nos convertimos en “producto” de los anunciantes de la plataforma. Al registrarnos estamos aceptando tácitamente que Facebook use nuestra foto de perfil, nuestro nombre o nuestros contenidos para sus campañas publicitarias o algoritmos de segmentación; de esta forma, usan nuestros datos para modelar la publicidad que vemos o la que puedan ver otros usuarios (indicando a nuestros amigos que a nosotros nos gusta una determinada marca). Nuestra implicación en la publicidad es obligatoria y, por supuesto, no recibiremos dinero alguno por nuestra participación.
  • Al usar Facebook consentimos que nuestros datos se almacenen en Estados Unidos y, por tanto, les aplique la legislación vigente en el país. De todas formas, hay una curiosa excepción para los usuarios de Alemania que cuentan con unas condiciones especiales tras los distintos procesos legales contra la red social en este país.

Seguridad y protección de los usuarios

  • Facebook no garantiza que su plataforma sea segura; sí que es cierto que impone ciertas “reglas de uso” y mecanismos para informar si nos topamos con usuarios que ejerzan de stalkers, publiquen contenidos violentos, sean spammers o realices actividades comerciales fuera de las normas establecidas.
  • Para poder registrar una cuenta en Facebook, el usuario debe ser mayor de 13 años y ofrecer información real (nada de nombres falsos o registrarnos suplantando a otra persona). De hecho, al registrarnos, uno adquiere una serie de compromisos con Facebook que, teóricamente, debemos cumplir: mantener actualizada la información de contacto, no compartir nuestra contraseña (aunque esto debería ser obvio), no transferir la cuenta a un tercero, usar datos reales y, además, acatar que Facebook pueda reclamar (y quitarnos) nuestro nombre de usuario porque una marca lo reclame o se queje.
  • Facebook se reserva el derecho de retirar contenidos publicados si considera que violan sus políticas o si alguien ha denunciado una violación de derechos de propiedad intelectual. Además, para los usuarios reincidentes, Facebook puede considerar la desactivación de las cuentas sin previo aviso.

Los derechos del usuario

  • Facebook puede cambiar las condiciones del servicio cuando quiera, es algo que deja bastante claro. Si bien es cierto que avisará a los usuarios, en el momento que se apliquen los cambios y sigamos usando el servicio, la red social de Mark Zuckerberg asumirá que los hemos aceptado.
  • Nuestra cuenta puede darse de baja o desactivarse tanto si lo solicitamos nosotros mismos como de manera unilateral por parte de Facebook (por ejemplo, por un mal uso). La desactivación es temporal, es decir, podemos volver a Facebook y reactivar la cuenta sin que los datos se hayan perdido. En el caso de eliminar nuestra cuenta, Facebook eliminará nuestros datos aunque, eso sí, con la prerrogativa que comentábamos al inicio: las copias de seguridad se mantienen.
  • Aunque eliminemos nuestra cuenta del servicio, Facebook mantiene vigente algunas clausulas de sus condiciones de servicio y, además de mantener los backups, los likes que hayamos hecho o los contenidos que se hayan compartido como “públicos”.
  • Facebook es una empresa estadounidense, por tanto, la legislación que aplica es la de su país: la ley estadounidense de protección de los derechos de autor (Digital Millennium Copyright Act) o la ley de protección de la privacidad de vídeo (Video Privacy Protection Act, VPPA) y, en caso de demanda, el fuero que aplica es el del tribunal del Distrito Norte de California o en un tribunal estatal del Condado de San Mateo. Además, Facebook queda exenta de toda responsabilidad por nuestros actos y en caso de demanda por algo que hayamos hecho, ellos permanecerán al margen.
  • Facebook no ofrece garantías de disponibilidad del servicio ni tampoco se hace responsable de lo que hagan los usuarios, ellos redactan un código de conducta que intentan que se cumpla pero tampoco garantizan que esto vaya a ocurrir en el 100% de los casos.
  • Si Facebook no cumpliese alguna de sus clausulas, no pasa nada. Que Facebook no cumpla no invalida el contrato y si hay alguna clausula que no se pueda cumplir por motivos técnicos o legales tampoco pasa nada, todo lo demás sigue siendo de aplicación.

Si tras leer todo esto te queda alguna duda con respecto a tus derechos en Facebook, la red social lo resumen muy bien al final de su contrato: “Nos reservamos todos los derechos que no te hayamos concedido de forma expresa”.

Fuente: ALT1040

PRISM: Así nos vigila EEUU en internet

Todos lo sospechábamos un poco, todos lo teníamos en cuenta. Así y todo, nuestro uso de las redes sociales, de los servicios web y de internet en general está enfocado en la comodidad que brinda su formato, con todos los costos que esto acarrea. Hoy internet volvió a demostrar que lo que provee no es gratuito y que detrás de los grandes cúmulos de usuarios, se esconde el oído ilegal y el ojo omnipotente de un estado que se cree la policía del mundo. PRISM es el programa por el cual nos vigila EEUU en internet, y a continuación te contamos todo lo que tienes que saber al respecto de un tema fundamental para comprender los tiempos en los que vivimos y el futuro de internet.

Las filtraciones de información no son un fenómeno de esta época, pero sí es en ésta donde sus consecuencias toman una relevancia inusitada en la historia de la comunicación social. Muchas veces pergeñadas por las propias empresas para crear bombo alrededor de una noticia (pues lo prohibido y oculto nos atrae como si fuera un agujero negro de curiosidad) y muchas otras tantas veces como consecuencia de la participación de espías, de empleados inescrupulosos, de fallas de seguridad y de gente tan curiosa como informativamente habilidosa, las filtraciones tienen un poder de desvelamiento que resulta imprescindible para saber qué es lo que nos ocultan. Justamente, los periódicos norteamericanos The Washington Post y The Guardian acaban de tomar en cuenta una filtración de la NSA, la Agencia de Seguridad Nacional (de EEUU), en donde se revela que el gobierno de Estados Unidos forma parte activa de un proyecto llamado PRISM, que tiene el objetivo de espiar a los usuarios de servicios como Facebook, Google, Microsoft y otros tantos centros neurálgicos de la red.

¿Qué es PRISM?

Con los ojos abiertos y la boca corrida a un costado en actitud sarcástica (a lo Mckayla, con el meme “not impressed”), encontramos que PRISM es un programa de la Agencia de Seguridad Nacional que funcionaba en absoluto secretismo utilizando un ingreso autorizado o no (ver más adelante) a los servidores de 9 de las compañías más importantes de la red. Entre ellas se listan a Microsoft, Yahoo!, Google, Facebook, PalTalk (proveerdor de internet), YouTube, Skype, AOL y Apple, tal cual y en el orden en el que aparecen en el documento. En información que no está confirmada, se habla de la inclusión futura de Dropbox. El informe en cuestión parecía estar destinado al entrenamiento de nuevos agentes de la agencia, como si fuera un manual en el cual se detallaban algunas de las actividades principales de este órgano del estado norteamericano.  El documento, un Powerpoint de 41 slides, se titulaba, según The Guardian, “la recolección [de datos] directa desde los servidores”, haciendo alusión a los principales proveedores de servicios de Estados Unidos.

¿Qué es lo que revisan?

Según indicaron los dos reconocidos sitios de donde surge la investigación, lo que PRISM buscaba era un acceso directo a la intimidad misma de los usuarios, allí donde pueden confiar y delatarse a sí mismos confesando crímenes o, especialmente, ideándolos junto a otros usuarios. Para esto, la NSA revisaba (suponemos que no manualmente, sino con software de data mining buscando patrones identificatorios de actividades ilícitas) los historiales de conversación, de búsquedas, las transferencias de archivos, los chats, las videoconferencias y mucho más de lo que queda almacenado de cualquier usuario interactuando en internet. Para hacer esto, la NSA no requería de ningún tipo de permiso judicial anterior a la acción de espionaje, lo que de por sí implica una violación a las leyes vigentes según la constitución estadounidense, incluida la tan mentada y siempre valorada 5ta enmienda.

El acceso de la NSA a la privacidad de las personas fue posible gracias a los cambios en la ley de vigilancia de EEUU, que se introdujo durante la presidencia de Bush y fue renovada con Obama en diciembre de 2012. Con la investigación y espionaje justificado legalmente, PRISM se dedica a la objetivación de presuntos casos de riesgo e inicia investigaciones sobre la privacidad de esa persona, atacando todos los frentes en donde su participación esté demostrada. Además del que resulta obvio de apreciar, el otro problema es que la NSA no sólo podría estar accediendo a la meta data, sino a la data en sí, según se pudo llegar a suponer luego de la interceptación del cable que hablaba de un pedido judicial a Verizon para que proveyera a los EEUU la información de más de varios centenares de miles de grabaciones de llamadas telefónicas domésticas. Es decir, no a los registros de llamadas a móviles, sino la grabación de la llamada en sí. Sobre esto hay contrapuntos, pues The Washington Post indica que el pedido formal es por la meta data de esas comunicaciones. Es decir, la hora del día en la que fue realizada, a qué número y cuál fue su duración.

De todas maneras, las suspicacias crecen cuando hay que considerar que en 2006 ya había tomado conocimiento público una filtración sobre un cuarto especial que la NSA tenía en la compañía telefónica AT&T. Como siempre, la legalidad de este tipo de programas está en disputa, aunque el programa parece estar basado en la Sección 215 de la Ley Patriota, que permite al gobierno obtener los registros de negocios o actividades que son relevantes para una investigación en curso contra el terrorismo. De hecho, y como para no quedarnos en que puede ser meramente un título mediático, hasta el momento, más de 77 mil reportes de inteligencia habían citado al programa PRISM como fuente de sus datos.

Nos orinan y dicen que llueve: el papel de las compañías en PRISM

Aunque la presentación especifica que se ejecuta con la ayuda de las empresas espiadas, todas las compañías que fueron mencionadas en esta investigación han enviado cartas y comunicados expresando que no forman parte activa de PRISM y que de hecho no sabían de su existencia. Siendo un poco más específicos y aclaratorios, Google –a través de su co-fundador Larry Page– anunció que “Google se preocupa profundamente por la seguridad de los datos de nuestros usuarios. Revelamos los datos de un usuario al gobierno de acuerdo a la ley, y revisamos cada pedido de manera cuidadosa. De cuando en cuando, la gente alega que nosotros hemos creado una puerta trasera en nuestros sistemas para que los aproveche el gobierno, pero Google no tiene una puerta trasera por la cual el gobierno obtiene acceso a los datos privados de los usuarios.“

Tanto Google como muchos otros cabezas del rubro informático han dicho que no tienen idea de PRISM y que si están llevando a cabo esas acciones en sus servidores, lo están haciendo sin el conocimiento y permiso de los grandes sitios web. Desde Facebook salieron a decir que “no forma ni ha formado parte de ningún programa que le dé a Estados Unidos o cualquier otro gobierno, acceso directo a nuestros servidores. Nosotros nunca hemos recibido una petición o una orden judicial de ninguna agencia gubernamental solicitando información o metadatos a granel, como el que Verizon ha recibido.»

Todo lo dicho por las empresas participantes de este drama se pone en duda desde varios periódicos con investigaciones propias, apelando al archivo. Por ejemplo, desde el New York Times, se indica que las compañías no sólo obedecieron a la NSA y a sus demandas, sino que también contribuyeron con ella generando un acceso directo a los servidores. Para probarlo, estos indican algunas conversaciones entre los responsables de los 9 sitios en la mira y el gobierno de los EEUU en el marco de la ley FISA de 2008, en la que se legitimaban los pedidos de información privada en un caso legal en curso. Así y todo, y siendo Microsoft la primera en colaborar y Twitter una de las únicas que no lo aceptó nunca, los sitios dijeron que no tenían una puerta trasera para el gobierno y que no conocían o conocían muy poco a PRISM.

Aquí es cuando se pone interesante, pues en lugar de añadir una puerta de acceso a sus servidores, a las empresas se les pidió esencialmente que erigieran un buzón de correo con llave, la cual sólo tendría el gobierno. En otras palabras, el gobierno no tiene un acceso directo a los servidores de las compañías, pero sí tiene un depósito de información privada que es manejada en conjunto con los dueños del sitio. Según mencionó un allegado a las negociaciones entre las partes, Facebook, por ejemplo, construyó un sistema de este tipo para solicitar y compartir la información. La falta de una fuente confiable y no un abstracto informante hace dudar, pero los indicadores de participación mutua están presentes, además de siempre sospechados por el usuario promedio de redes sociales que nos preguntan hasta cuánto calzamos.

Obama justifica a PRISM

Como no podría ser de otra manera cuando algo se hace tan evidente, la negación no fue la estrategia escogida en Washington, sino la defensa del cuestionado programa. El pasado viernes, Obama decía, validando automáticamente todos los rumores que había sobre la veracidad de PRISM, “Creo que es importante reconocer que no se puede tener el 100% de seguridad y al mismo tiempo un 100% de privacidad, además de ninguna incomodidad. Tenemos que tomar ciertas decisiones como sociedad“. De todas maneras mencionó que nadie está escuchando las conversaciones telefónicas de las personas, pues “ese no es el objetivo de este programa. Lo que la comunidad de Inteligencia está haciendo es identificar esas llamadas estudiando los números de teléfono y la duración de las llamadas. No se miran los nombres de la gente, y no se fijan en el contenido de las llamadas“. Otro comentario de Obama fue para indicar que las personas investigadas son mayoritariamente extranjeras, dando a entender que el principal motivo es la lucha contra el terrorismo.

En este sentido, es necesario comentar que según una reciente actualización de la información por parte de The Guardian, EEUU no estaría solo en la planificación y desarrollo de PRISM, pues la agencia de seguridad del Reino Unido (GCHQ) también está comprometida, obteniendo información directamente desde PRISM. Los documentos muestran que GCHQ, con sede en Cheltenham, ha tenido acceso al sistema por lo menos desde junio de 2010, y ha generado 197 informes de inteligencia desde el año pasado.

La punta del iceberg

Además de la hipocresía de EEUU al criticar la actividad cibernética, la censura y los controles de China sobre internet, la existencia de PRISM y programas similares trabajando de forma más secreta y paralelamente plantean problemas éticos y legales sobre el potencial acceso directo a la intimidad de millones de usuarios de Internet. Y que se sepa que no sólo son usuarios, sino también consumidores que pagan por servicios y que firman acuerdos de seguridad que de ahora en más tendrán que leer más atentamente en busca de los grises y vacíos legales que permiten esta embestida de la policía del mundo sobre las actividades de las personas, dando vuelta la carga de la prueba y entendiendo a cada uno de los usuarios como culpables hasta que se demuestre lo contrario. Ese, se los aseguramos, es un mundo en el que no queremos vivir, y algo vamos a tener que empezar a hacer al respecto.

Fuente: NEOTEO

Qué es la Ley Lasalle y en qué se difererencia de la Ley Sinde

Hoy el Consejo de Ministros ha aprobado la Ley Lasalle, una nueva reforma de la Ley de Propiedad Intelectual, que actualiza y endurece la conocida como Ley Sinde, siendo esta una disposición particular de la propia Ley de Economía Sostenible que propuso el Gobierno de Rodríguez Zapatero en 2009.

La reforma de hoy supone la continuación de la agenda de modificaciones sobre la legislación en materia de derechos de autor. Esta llega tras la aprobación hace un año del Reglamento de la Ley Sinde, conocido como la Ley Sinde-Wert (que pondría en marcha en junio de 2012 la Comisión de la Propiedad Intelectual, encargada de abrir expedientes a las primeras páginas web que enlazaran, supuestamente, contenidos sujetos a derechos de autor)

A continuación explicamos las claves de esta nueva reforma de la legislación española en materia de propiedad intelectual, en otras palabras, qué es la Ley Lasalle y qué diferencias hay con regulaciones anteriores, como la Ley Sinde. Como curiosidad, añadir que esta reforma no se conoce como “Ley Wert”, si no que hace referencia al Secretario de Estado de Cultura, José María Lasalle, del propio Ministerio de Educación, Cultura y Deporte que dirige José Ignacio Wert.

Mayor censura en la red

Con esta nueva Ley Lasalle, cualquier web de enlaces que “haya causado o sea susceptible de causar un daño patrimonial a los titulares de derechos de autor” podrá ser retirada. Ello a pesar de que estos sitios web no alojen contenidos, y sí lo hagan en servidores extranjeros. Con la reforma en la mano, será más fácil actuar contra este tipo de páginas.

Sin embargo, se contempla la excepción de buscadores como Google, que enlacen “de manera ocasional” contenidos, contra los que no podrán actuar.

En palabras del ministro Wert en el Consejo de Ministros de hoy, lo que diferencia a esta reforma de la Ley Sinde es que “distingue bien deliberadamente el uso ilícito y lucrativo de la tecnología cuando abusa de los derechos de propiedad intelectual”.

Identificación de “infractores” por operadores de telecomunicaciones y empresas de publicidad

Otro de los aspectos controvertidos de esta Ley Lasalle es el que dota a los operadores de telecomunicaciones y empresas de publicidad del papel de vigilantes de la red. El principal objetivo es que cualquier empresa que tenga relación con una “página pirata” deba identificar a los infractores (agilizando su bloqueo).

Cambio en la definición de copia privada

En 2006, se definió la “copia privada” como “la copia que se hace en el ámbito privado, y por lo tanto legal, solo si se hace a partir de obras a las que se haya accedido legalmente”. Este último inciso deja fuera claramente a las copias realizadas a partir de las descargas de Internet, aunque jurídicamente sea entendido como un concepto impreciso.

La Ley Lasalle termina con el debate legal existente, también planteado en otros países como Alemania o Austria, favoreciendo explícitamente a la industria de los contenidos. En la nueva reforma, se menciona expresamente qué significa “acceso legal”, restringiéndolo a “aquellas copias que se hagan de un soporte original, por lo que la obra ha de estar en un soporte, y siempre que se haya adquirido de forma previa en propiedad”.

Así se excluyen del concepto legal de “copias privadas” a aquellas obtenidas a través de Internet, pero también a las copias que puedan realizarse de material alquilado o prestado (en otras palabras, será ilegal copiar una obra que te haya dejado un amigo).

Gravar a las Universidades: la vuelta de tuerca del canon digital

Otra de las grandes polémicas que trae esta reforma es el traslado de una parte del canon digital, que actualmente sale de los Presupuestos, a las Universidades. Con la ley en la mano, se obliga a los centros académicos a que deban pagar a CEDRO (que para más inri, fija libremente los precios) por la reproducción de contenidos (aunque esta se haga con fines educativos y/o divulgativos).

Refuerzo de la Comisión Sinde

La Ley Lasalle además “pone por escrito” algunas de las funciones de la Comisión de la Propiedad Intelectual, que ve reforzado su poder al convertirse en una especie de “tribunal de excepción para los casos de la propiedad intelectual”.

No sólo podrá ir contra las famosas “páginas de enlaces”, si no contra todas las webs que hayan sido denunciadas por vulneración de derechos de la propiedad intelectual. Esto significa que todas las páginas deberían vigilar también los contenidos aportados por los propios usuarios (por ejemplo en el caso de los foros), para evitar que se introdujeran contenidos o enlaces “ilegales”. Esta parte de la Ley es bastante cuestionable ya que existen argumentos que explican que es contraria a la propia Directiva 2000/31/CE de la Unión Europea.

La Comisión no sólo podrá exigir a la web denunciada la retirada del contenido específico (o incluso la posibilidad de cerrar páginas sin autorización judicial), si no que también podrá imponer multas económicas con sanciones de entre 150.001 y 600.000 euros.

Supervisión de las sociedades de gestión de los derechos de autor

Tras los escándalos existentes en entidades como la SGAE, la Ley Lasalle también incluye cláusulas con el objetivo de reforzar la transparencia de dichas sociedades. Estarán obligadas, entre otras cosas, a realizar auditorías de su funcionamiento, y al establecimiento de escalas para las diferentes sanciones económicas en caso de infracción.

Esa nueva reforma de la propiedad intelectual supone un endurecimiento de los planteamientos de la Ley Sinde, no adaptando en ningún caso la LPI a la nueva realidad digital en la que vivimos. La creación de un escenario muy poco competitivo para el sector digital, reduciendo las posibilidades de crecimiento del desarrollo tecnológico y cultural, son sin duda malas noticias para nuestra economía.

Fuente: ALT1040

La ONU quiere más control de Internet por los Gobiernos para combatir el terrorismo

En algunas agencias de la Administración de Estados Unidos se está volviendo al fax o a las reuniones cara a cara, según ha podido saber ELMUNDO.es. ¿La razón? Internet no es, salvo que se usen sistemas de seguridad, lo suficientemente seguro.

Esas medidas de seguridad se deben al temor ante el espionaje de China. Pero lo cierto es que la Red es un territorio de nadie para todo tipo de actividades delictivas. El problema es que la principal medida para combatir eso es el control por los Estados de las comunicaciones online.

Ésa es la sugerencia de la ONU, que acaba de publicar su informe ‘El uso de Internet con objetivos terroristas’, un trabajo de 128 páginas encargado por el Gobierno británico en el que se analiza este nuevo campo de batalla virtual. Es un campo de batalla en el que hasta ahora la atención se había puesto en las actividades de reclutamiento y comunicación online, pero en el que están empezando a producirse cada vez más fugas de información debido a la proliferación de las redes sociales.

Así es como Twitter, Facebook, YouTube, Dropbox, Flickr y las plataformas que permiten crear blogs se han convertido en lugares en los que los terroristas no solo se comunican, sino también pueden obtener información colgada por equivocación por funcionarios o empleados de empresas vinculadas a los sectores de la defensa y la seguridad.

Para la ONU, la respuesta es clara: más control nacional e internacional. Hasta la fecha, solo la Unión Europea ha hecho obligatoria la retención de datos por los servidores de acceso a Internet (ISP, según sus siglas en inglés). El Gobierno de Obama ha tratado de convencer al Congreso de que adopte una medida similar, pero por ahora la legislación está atascada, entre las elecciones legislativas y también una campaña de los grupos que defienden la privacidad online.

La clave del debate es que los servidores de Internet guarden los datos de los usuarios en caso de que las autoridades los requieran. Otras medidas que la ONU sugiere son hacer obligatorio el registro de los usuarios de redes Wi-Fi abiertas al público, como en aeropuertos o cada vez más establecimientos, y el control de los proveedores de servicios de voz, como Skype, del uso que los clientes hacen de sus redes.

Fuente: El Mundo

Stuxnet fue desarrollado por el gobierno de Estados Unidos

El periodista David E. Sanger, del New York Times, acaba de revelar que el gobierno de Estados Unidos junto con el de Israel fueron los responsables del desarrollo del virus informático “Stuxnet“, con el que se atacó de forma cibernética instalaciones nucleares en Irán. Si bien seguramente más de cuatro lectores de NeoTeo suponían que algo así había ocurrido, el trabajo de Sanger aporta pruebas de este hecho, y desvela un programa secreto con el nombre clave de “Juegos Olímpicos” que se remonta a la administración de  George W. Bush.

No eran pocos los que sospechaban de que algo así podía ocurrir, pero nadie -hasta ahora- había sido capaz de aportar pruebas que avalasen esa versión. Todo a cambiado gracias al bombazo informativo que  ha lanzado el periodista David E. Sanger al publicar un artículo nada más ni nada menos que en el prestigioso diario New York Times, en el que se desvela como el gobierno de su país, junto al de Israel, desarrollaron el virus informático “Stuxnet”, con el que se atacó de forma cibernética las instalaciones nucleares en Irán. El artículo en realidad es el resumen de un libro intitulado “Confronta y esconde: Las guerras secretas de Obama y el sorpresivo uso de poder estadounidense” que Sanger espera publicar en las próximas semanas. Según esa nota, el presidente Obama avaló y aceleró un programa secreto denominado “Juegos Olímpicos”, lanzado por su predecesor George W. Bush, cuyo objetivo final era el desarrollo de virus informáticos destinados a atacar el programa de enriquecimiento de uranio de Irán.

De hecho, cuando se conocieron detalles del virus Stuxnet, algunos especialistas entre los que se encontraban ingenieros de la empresa de seguridad Kaspersky dieron a entender que detrás del ataque a la planta nuclear Natanz en Iran sólo había sido posible gracias a la ayuda de algún gobierno, pero en realidad nadie se había atrevido a asegurarlo públicamente. Recordemos que Stuxnet, a diferencia de otros programas del tipo “malware” que vemos habitualmente, tenía un blanco muy específico y concretamente se dedicaba a buscar unos dispositivos de Siemens utilizados para controlar las centrifugadoras utilizadas en Irán para el enriquecimiento de uranio. La idea detrás de este virus era provocar un mal funcionamiento de estos aparatos, estropeándolos y retrasando el programa nuclear de ese país. Los expertos de Kaspersky dedujeron que el Stuxnet era capaz de variar la velocidad de giro de estas máquinas, provocando fallos en el sistema. Aparentemente, el 20% de las centrifugadoras del complejo de Natanz quedaron fuera de servicio culpa de este virus, que consiguió pasar desapercibido durante dos años, hasta ser descubierto en 2010.

Obviamente, la idea detrás de un engendro como Stuxnet es muy simple: afectar al enemigo  sin que se lleve a cabo una acción militar abierta. Durante años los expertos estadounidenses hicieron declaraciones sobre la posibilidad de que en el futuro tuviesen lugar acciones de este tipo, algo que ahora, a la luz de los hechos, parece tener un sólido fundamento: estaban hablando de una posibilidad real, refiriéndose a un problema que conocían perfectamente bien, ya que ese país estaba trabajando activamente (desde hace años) en un proyecto de esta naturaleza. Sin embargo, y a pasar de todo lo expresado por David E. Sanger, el malware “Flame”, recientemente descubierto por Kaspersky, no habría sido desarrollado en el mismo marco que el Stuxnet. Está claro que éste será un tema caliente durante los próximos meses.

Fuente 1: New York Times

Fuente 2: NeoTeo

Freenet: Más allá de la Web

En este mismo momento en el que lees estas líneas, existe una red en operación que privilegia, por sobre todas las cosas, la libertad de expresión y el anonimato. Por supuesto, ambas son armas de doble filo, debido a que aquello que le da a alguien perseguido una vía para expresarse, también puede ser usado por los peores representantes de nuestra raza. Freenet no es solamente una red p2p que evita la censura. Es un ejercicio ético que llega en un momento en el cual se puede observar el más elaborado movimiento por parte de las autoridades para controlar a la Web. Neutralidad en la red en una de sus máximas expresiones. Si crees estar listo, echa un vistazo.

Libertad de expresión y censura. Intercambio de archivos y piratería. SOPA, PIPA, ACTA, OPEN. Control y libre albedrío. 2012 nos arrojó todo esto a la cara, y la situación no va a cambiar en el corto plazo. Los gobiernos buscarán, de una forma u otra, aplicar cierto nivel de control sobre la Web. Los usuarios volverán a reaccionar de forma similar a la vez del apagón, y obviamente, los elementos más radicales se expresarán con acciones más agresivas. Parece un círculo vicioso, y nadie está dispuesto a ceder. Sin embargo, casi siempre se olvida el hecho de que la innovación surge de la necesidad. Si mañana la Web se convierte en una red llena de candados y sistemas de vigilancia, los usuarios tendrán alternativas. Usarán las ya existentes y se adaptarán a ellas, o crearán nuevas desde cero. Una de estas alternativas es Freenet, un proyecto que lleva cerca de doce años entre nosotros, y del cual hemos hablado en el pasado.

La aventura en Freenet comienza escogiendo el nivel de seguridad. Al no tener contactos en la red, sólo la opción de baja seguridad es viable.

He leído en varias ocasiones que Freenet se presenta como un reemplazo a BitTorrent. Freenet es en esencia una red P2P, por lo cual compartir archivos es una de sus tantas funciones, pero estaríamos en un error si consideramos a Freenet únicamente para el rol de plataforma de intercambio. Imagina a Freenet como una especie de caché gigantesco, distribuido a través de todos sus nodos. Al trabajar de esta forma, quien ha publicado un sitio o colgado un archivo no está obligado a mantenerse en línea para compartirlo. El contenido de Freenet es repartido entre los nodos al momento de su carga, y cuando alguien realiza una solicitud, se obtiene un trozo de cada uno de ellos. No hay conexiones directas ni reconocimiento de nodos, garantizando así un alto nivel de anonimato. Como si eso fuera poco, Freenet posee varios niveles de seguridad, que parten desde dos tipos de conexión: Opennet y Darknet. El primero le da a Freenet un comportamiento de conexión más abierto, con todos los usuarios conectándose entre sí. Por otro lado, Darknet funciona al conectarse solamente entre amigos y conocidos que hayan intercambiado sus “referencias de nodo”, un equivalente a una clave pública.

Freenet requiere tanto de espacio en disco como de ancho de banda. Para un mayor rendimiento, trata de compartir todo lo que puedas.

La primera impresión tal vez parezca un poco frustrante, pero en realidad es muy sencillo acceder a Freenet. En el caso de Windows, lo único que debes hacer es descargar su instalador, para luego configurar algunos parámetros adicionales. Los desarrolladores recomiendan que utilices un navegador diferente para recorrer a Freenet, y en caso de que poseas a Google Chrome instalado, Freenet lo usará por defecto en Modo Incógnito. No se recomienda la utilización de Internet Explorer, pero aquellos que prefieran navegar con Firefox u Opera, lo único que deben hacer una vez que Freenet está instalado y ejecutándose, es ingresar la dirección “http://127.0.0.1:8888”. Luego deberás escoger si deseas conectarte por Opennet o Darknet (si no conoces a nadie, Opennet será tu primera opción), la cantidad de espacio en disco asignada a la “tienda de datos” (puedes comenzar con 1 GB), y finalmente, cuánto ancho de banda estás dispuesto a compartir. Freenet no debería usar más de la mitad disponible, por lo tanto, puedes escoger una de las entradas preestablecidas, o ingresar los valores manualmente. Un detalle a tener en cuenta es que tanto Opennet como Darknet tienen un puerto UDP asignado. Aunque no estás obligado a abrir estos puertos en tu router, se recomiendia para obtener un mejor rendimiento.

La apertura de puertos no es crítica, pero sí recomendada

No hay lugar a dudas cuando decimos que Freenet tal vez sea una de las mayores expresiones de neutralidad en la red. ¿Por qué? Porque dentro de Freenet encontrarás todo lo que se puede esperar de la Web (si bien en menor cantidad), de un extremo al otro. Desde blogs personales, portales con información técnica y sitios dedicados a causas como Occupy Wall Street, hasta descargas de warez y pornografía en todas sus variantes, legales e ilegales. Su buscador (que dicho sea de paso no funciona tan bien) no posee ninguna clase de filtro, por lo que en ciertos momentos sentirás que navegas en una verdadera anarquía. Freenet ofrece libertad de expresión, solo que en una versión destilada y concentrada. Algunas cosas pueden caerte mal, y la misma red lo advierte a cada paso con mensajes de “Ten Cuidado”. Varios portales no han sido actualizados en un largo tiempo, un detalle que tal vez confirma el perfil experimental de Freenet. Puede que algunos simplemente hayan creado un sitio para ponerlo a prueba en Freenet, y lo hayan abandonado al poco tiempo. En cambio, los sitios más importantes reciben varias actualizaciones diarias. Tu primera parada será Linkageddon, un concentrador de enlaces a todo lo que está en Freenet, sin importar la fecha de publicación, el contenido o su origen.

Esto sería similar al concepto de "página principal" en Freenet

Se dice que la seguridad es incómoda, y que la privacidad tiene su precio, más allá de que ese precio no tenga relación con dinero. No podemos negar que Freenet es relativamente fácil de usar y requiere de una configuración mínima (a menos que operemos bajo un entorno no convencional), pero debido a su naturaleza anónima, el punto más débil de Freenet es la velocidad. La gran mayoría de los sitios presentes en la red trabajan con texto plano, por lo que ofrecen una carga relativamente rápida, y no encontrarás animaciones pesadas ni nada que se le parezca, pero hasta la carga más sencilla de imágenes será todo un ejercicio de paciencia. Hay muchos factores que influyen directamente sobre la velocidad de Freenet, sin embargo, aún asignando la mitad de mi conexión (tanto de subida como de bajada), debo decir que la experiencia fue regular en el mejor de los casos. Ahora, si un archivo o un sitio es extremadamente popular, adquiere cierta “prioridad” de descarga, haciendo que su acceso sea más veloz. Eventualmente, cuanto más tiempo pases dentro de Freenet, y más espacio y ancho de banda compartas, mayor será la velocidad. Cuánto tiempo hay que esperar es algo que honestamente no puedo responder, pero en el sitio oficial hablan de un promedio de 24 horas para que la conexión alcance su máximo potencial.

Esto es Linkaggedon. Hay algunas cosas muy fuertes ahí dentro.

Bien, ahí lo tienes. Freenet está al alcance de tu mano, y sólo eres quien tiene el poder para decidir usarlo. ¿Es acaso una herramienta adecuada para utilizar diariamente? Teniendo en cuenta un detalle como el rendimiento, la primera respuesta que nos viene a la mente sería “no”, pero eso en realidad depende de las circunstancias a las que el usuario debe enfrentarse. En Occidente aún contamos con una importante capacidad de expresión, y estamos luchando para que eso no cambie. Por otro lado, hay países en los cuales una persona puede ser extraída de su hogar en plena noche y detenida por las autoridades por haber escrito algo con su teclado que no le cayó bien a un funcionario del gobierno. Hay reportes de que Freenet está siendo utilizado en China, pero la forma en la que trabaja la red impide tener registros precisos. Para finalizar, creo que velocidad y comodidad a cambio de anonimato y libertad de expresión es un intercambio más que razonable para quien necesite o acepte realizarlo, y no es algo que solamente se aplique a la red Freenet, sino también a otras tecnologías como es el caso de Tor. Espero que Freenet te sea útil, pero hablando un poco con el corazón, espero que nunca tengas que usarlo.

Sitio oficial y de descarga.

Fuente: NEOTEO

Un nuevo proyecto sobre ‘ciberseguridad’ en EEUU desata otra vez las alertas en Internet

Los legisladores estadounidenses vuelven a la carga con un proyecto de ley de ‘ciberseguridad’ que algunos grupos de activistas consideran aún más restrictiva que el polémico proyecto antipiratería SOPA-PIPA, que sufrió el revés de una movilización en la Red sin precedentes ante la amenaza de aumentar dramáticamente el control -tanto del Gobierno como de las corporaciones- sobre Internet.

El proyecto HR 3523 o CISPA (Cyber Intelligence Sharing and Protection Act), que se encuentra en la Cámara de Representantes de EEUU, se está ganando fuertes críticas de ciberactivistas que ven en él una reencarnación de SOPA, aunque de forma aún más restrictiva. Se espera una votación para las próximas semanas.

Lo cierto es que este texto -presentado a finales del año pasado por los representantes Mike Rogers y Ruppersberger– no sólo se centra en la protección de la propiedad intelectual, sino que abarca además un amplio abanico de supuestos bajo el paraguas genérico de ‘seguridad cibernética nacional’.

Propone, de hecho, una revisión de la normativa de seguridad nacional (National Security Act ) de 1947 para fomentar un mayor intercambio de información sobre ‘ciberamenazas’ entre el Gobierno de los EEUU y el sector privado, o entre las propias empresas privadas.

La definición de “información sobre ciberamenazas” se amplía en este proyecto a cualquier información relativa a vulnerabilidades o amenazas a las redes o sistemas de propiedad y/o operados por el Gobierno de EEUU o empresas estadounidenses, así como cualquier intento por “degradar, interrumpir o destruir” tales sistemas o redes, además del robo o la “apropiación indebida” de información privada o gubernamental, incluida (y aquí entra la comparación con SOPA) la propiedad intelectual.

Este amplísimo proyecto va más allá y prevé eliminar cualquier responsabilidad a las empresas que recopilan y comparten información entre ellas o con el Gobierno por motivos de seguridad.

La lista de apoyos a este polémico proyecto de ley es extensa (PDF) y cuenta con más de un centenar, entre los que destacan gigantes tecnológicos que manejan información muy sensible como IBM, Verizon, AT&T, Microsoft e incluso Facebook.

Ola de críticas

Numerosos grupos han puesto el grito en el cielo. El Centro por la Democracia y la Tecnología alertaba ya en diciembre que el proyecto de ley apenas delimita qué tipo de información se puede compartir -a pesar de la protección de la privacidad-, podría aumental el papel del Gobierno como vigilante de la Red y permitiría el intercambio de información entre empresas con muy pocas restricciones.

Entro otras acciones, el propio CDT propone una serie de pasos para preservar la libertad en Internet, tales como no usar la seguridad para justificar una barra libre en la interceptación de comunicaciones, evitar el abuso de las agencias secretas, no autorizar en general a las compañías para monitorizar a sus clientes y evitar sacrificar la neutralidad de la Red en aras de la ‘ciberseguridad’.

Ahora, la Electronic Frontier Foundation (EFF) destaca que el Congreso de EEUU, al considerar este proyecto está anteponiendo la ‘ciberseguridad’ a la privacidad, dado que el texto prevé dar a las compañías luz verde para monitorizar y retener todas las comunicaciones (como mensajes de texto o correo electrónico) y compartirlo con el Gobierno o entre ellas bajo la excusa de unas indefinidas “amenazas de ciberseguridad“.

Nube de proyectos

De hecho, tanto CDT como EFF alertan de que existe una confusa nube de proyectos de ley sobre ‘ciberseguridad’ en EEUU aparte de CISPA (H.R. 3674, S. 2105 y S. 215, además de un proyecto contra la pedofilia, H.R.1981, que incluye la posibilidad de rastrear indiscriminadamente la Red) que plantean varios interrogantes. ¿Quién estará a cargo de este asunto, el poder civil o el militar? ¿Será su gestión transparente?

¿Y qué es exactamente una ‘amenaza cibernética’? La EFF también denuncia la indefinición de este término, así como del concepto ‘intercambio de información’, “a menudo un eufemismo para la vigilancia y el establecimiento de contramedidas como la monitorización del correo electrónico, el filtrado de contenidos, o el bloqueo del acceso a sitios web“, afirma el grupo activista.

Legislar sobre ‘ciberseguridad’

La ‘ciberseguridad’ está siendo la bandera que están enarbolando muchos Gobiernos occidentales para plantear actualizaciones y nuevas normativas encaminadas a vigilar más de cerca la Red. Recientemente, el Gobierno Británico, preocupado desde hace años por las crecientes amenazas cibernéticas, anunciaba una ley para monitorizar Internet, las llamadas telefónicas, los correos electrónicos, los mensajes en las redes sociales y las visitas a sitios web, un paso “necesario” según el Ejecutivo.

Incluso Francia quiere ir más allá en la monitorización de la Red con la excusa de prevenir atentados terroristas. Justo después de la tragedia de Toulouse en la que un supuesto terrorista yihadista mató a siete personas, de los que seis eran niños, en una escuela judía en Toulouse.

Así, y en plena campaña electoral, el presidente francés, Nicolas Sarkozy, anunció un endurecimiento de la legislación francesa que recogerá, entre otras medidas, castigos por la mera consulta de páginas web que inciten al terrorismo.

Fuente: El Mundo

Internet oculto o Darkweb, el submundo de Internet

Hoy en día estamos acostumbrados a arrancar nuestro explorador y acceder a alguno de los buscadores de Internet (Google principalmente) para buscar lo que necesitamos. Nuestro uso de Internet se ha reducido en estos años prácticamente a esto y a usar alguna aplicación mas como las redes sociales, sin embargo, esto no ha sido siempre así, hace años, en los comienzos de Internet, las conexiones eran exclusivamente directas hacia algún sitio cuya dirección conociésemos previamente.

Lo que mucha gente ignora es que existe otro mundo desconocido fuera de este Internet que todos conocemos, y menos se conoce que este submundo de Internet al que no es sencillo llegar por los medios habituales de conexión (a veces es simplemente imposible), es mucho mayor en tamaño que el que usa la mayoría de internautas.

Vamos a conocer un poco mas esta especie de submundo oculto de Internet, sus ramificaciones, sus páginas secretas, algo que poca gente conoce y que no se trata en casi ningún medio.

Los orígenes de Internet se remontan a 1969, en esa fecha se estableció la primera conexión entre los ordenadores de 3 universidades californianas y otra en UTAH, en Estados Unidos. Se le llamó ARPANET (Advanced Research Projects Agency Network o Red de la Agencia para los Proyectos de Investigación Avanzada de los Estados Unidos).

Desde estas conexiones a pequeña escala hasta hoy el volumen de usuarios y de conexiones ha crecido exponencialmente año tras año. El punto álgido en el crecimiento de Internet se produce en 1990 , con la creación del lenguaje HTML y cuando aparece en Internet la World Wide Web (WWW), se trata de un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto y utiliza Internet como medio de transmisión. Lo que conocemos como páginas Web.

A partir de ese momento se populariza y se multiplica el número de servidores, páginas web y usuarios que acceden a Internet de una forma sencilla, dejando atrás los antiguos métodos de conexión a nodos específicos reservado a unos cuantos, principalmente, científicos, universidades o gobiernos.

Tal ha sido el triunfo de la WWW que se mezcla a menudo con el término “Internet”, dando por hecho que la WEB (www) es Internet . En realidad sólo es una parte del conjunto. Existen, además , muchos otros servicios y protocolos en Internet, aparte de la Web como el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea o el acceso remoto a otros dispositivos (SSH y Telnet). El uso mayoritario de Internet sin embargo, realmente se reduce al uso de la Web a través de alguno de los buscadores existentes, donde Google se ha llevado la mayor cuota del mercado.

Esto que todos conocemos de Internet es lo que se conoce como el Internet superficial, y su definición es que incluye los servicios indexados por los motores de búsqueda.

Existe también un Internet oculto, mas allá de estos buscadores y que no están por tanto indexados por ellos. Incluye el resto de servicios no indexados como páginas ocultas, páginas de gobiernos, páginas ilegales, páginas en Flash, páginas protegidas por contraseña, inaccesibles para las arañas, etc. Su tamaño se cree que es mucho mayor que el Internet superficial que todos conocemos. Se le conoce como el Internet profundo.

Se conoce como Internet profunda o Internet invisible (Deepnet, Invisible Web, Dark Web o Hidden Web) a toda la parte de Internet que no está indexada por los motores de búsqueda. Para entender mejor este concepto , nos podemos imaginar un gran iceberg, que sería Internet, del que sólo vemos una pequeña parte (la superficial), mientras que en el fondo está sumergido el resto. Esta parte oculta debajo del agua es lo que se conoce como Internet Invisible y que contiene aquella información que normalmente no podemos o no sabemos recuperar.

En 1994 la doctora Jill Ellsworth utilizó el término de “Invisible Web” (Internet Invisible), para referirse a la información que los motores de búsqueda tradicionales no pueden encontrar.

Otra forma de denominar a esta información es “deep web” (Internet profunda), ya que en realidad no es invisible, sólo hay que saber llegar a ella a través de navegadores convencionales o con plugin.

La metáfora del Iceberg para comprender el término, nos vale también para entender su tamaño, al igual que los Iceberg, la parte mas grande de Internet es la que no se ve. En el año 2000 se estimaba que el tamaño del Internet Profundo era de 7.500 TeraBytes de datos en unos 550.000 millones de documentos. Para hacernos una idea, se estima que en aquella época la Internet Superficial ocupaba 167 Terabytes y por ejemplo el contenido de la Biblioteca del Congreso de Estados Unidos tenía unos 3.000 Terabytes que no eran accesibles por los motores de búsqueda.

Estimaciones basadas en la extrapolación de un estudio de la Universidad de California en Berkeley especula que actualmente el Internet Profundo debe tener unos 91.000 TeraBytes.

Dentro de este Internet oculto se puede incluso hacer 2 distinciones.

El Internet oculto como tal, información que está disponible en Internet pero que únicamente es accesible a través de páginas generadas dinámicamente tras realizar una consulta en una base de datos. Es inaccesible mediante los procesos habituales de recuperación de la información que realizan buscadores, directorios y agentes de búsqueda. Pero podemos acceder mediante herramientas de navegación, correo,…

Y el Internet oscuro (Dark Internet o Darkweb o Darknet) , donde los servidores o host que son totalmente inaccesibles desde nuestro ordenador. La causa principal se debe a zonas restringidas con fines de seguridad nacional y militar, otros motivos son la configuración incorrecta de routers, servicios de cortafuegos y protección, servidores inactivos, “secuestro” de servidores para utilización ilegal o páginas de dudosa moralidad.

Este inmenso submundo de Internet está compuesto por páginas webs abandonadas con links rotos o que se han quedado desfasadas en una especie de mundo anticuado al que no se puede llegar ya por las actualizaciones posteriores de Internet. En su mayor parte este lado oscuro u oculto de Internet lo forman bases de datos de diversos sitios (bases de datos de ventas por ejemplo) o gran cantidad de documentos pdf a los que no se puede llegar a través de los buscadores y debemos hacerlo o bien a través de una web central, o con una contraseña específica o sabiendo ir al sitio directamente o a través de algunos de los directorios que podemos encontrar en ciertas páginas de Internet y que nos dirigen a ellas. Buscando por Internet podemos encontrar webs que se dedican a recopilar las páginas ocultas de Internet.

Dentro de este submundo lo mas conocido es el I2P (Proyecto de Internet Invisible o Invisible Internet Project). Se trata de un software libre y gratuito que ofrece una red anónima para comunicaciones entre ordenadores usando Internet. I2P realiza un protocolo que permite una comunicación anónima entre varias herramientas y aplicaciones como correo electrónico anónimo o un anónimo chat de IRC entre otros. También se puede intercambiar archivos tales como películas, software, música, etc… Por razones de seguridad y anonimato, sólo se puede descargar archivos que se encuentren en I2P y no fuera de esta red. En I2P también existen páginas webs llamadas eepsites, donde se pueden crear, ver y opinar en las webs libremente y de forma anónima.

Hay sin embargo otra parte del mundo invisible de Internet donde la línea es difusa entre el Internet profundo y el llamado Internet oscuro.

Existen una gran cantidad de páginas web que no son indexadas por los buscadores, páginas que no podemos encontrar mediante búsquedas normales, principalmente porque sus dueños las han excluido a través de un protocolo de exclusión. Los motivos suelen ser porque son páginas privadas creadas para que sólo pueda verlas un reducido grupo de gente o para intercambiarse información, desde texto a videos, o porque son páginas ética o moralmente dudosas o directamente ilegales y que se excluyen del público general por motivos obvios.

Encontramos también sitios inocentes , donde se ocultan algunos secretos sin demasiada trascendencia.

Es el caso de las llamadas Páginas secretas de Google, donde por Internet se puede encontrar fácilmente links a estas páginas ocultas que suelen ser por lo general imágenes de Google extrañas o con idiomas extravagantes como el klingon. O las páginas secretas del Mozilla Firefox, en las cuáles podemos encontrar algunos comandos para obtener ciertos secretos y opciones del navegador.

Una parte de este submundo son las páginas webs probablemente mas atacadas por hackers y que mas gente desearía conocer, se trata de las webs de gobiernos, CIA , FBI , Interpol o Bancos y que generalmente sólo se puede acceder por IP. Estas webs son ocultas y privadas por seguridad y son las páginas mas atacadas y probablemente mas difícil de acceder de todo Internet.

Como buen inframundo o submundo que se precie, tiene una parte de misticismo  leyenda o historia. Hay una teoría por Internet que relaciona gran parte de estás páginas ocultas con los Illuminati. Según esta teoría, conocida por Internet como Supuestas páginas secretas del Illuminati, algunas páginas con símbolos extraños o Illuminati redireccionan pinchando en algunas zonas hacia páginas ocultas que revelan información de todo tipo, incluso del futuro y que serían webs Illuminati. Para demostrar esto se pueden encontrar en algunos foros y algunas páginas, información de estas webs y de alguna información de la que se revela y algunos videos grabando estas páginas.

El resto del Internet oculto está principalmente formado por páginas ilegales o para desarrollar actividades ilegales. Son casi tan buscadas como las del FBI o las páginas ocultas de los Bancos y casi igual de difíciles de acceder a ellas. Son las páginas que mejor definen el Dark Internet o Internet oscuro.

Estas páginas pueden ir desde secuestro de servidores, páginas de contacto de delincuentes o incluso para contratarlos, para el tráfico de cualquier tipo de sustancia, hasta páginas de pederastia, páginas ilegales o censuradas en su país, páginas de hackeo o para liberar virus o páginas de terrorismo.

Este submundo de Internet de la darkweb se empezó a conocer a finales de los 90, cuando se inició una investigación para intentar calibrar su tamaño, en esos momentos se dieron cuenta que era mucho mas grande de lo que pensaban, lo estimaron entonces en 2 o 3 veces el tamaño de la web conocida.

En 2001 se publicó un artículo en la Darkweb (que se sigue citando en la actualidad) en el que se estimó que cuando hacemos búsquedas en Internet, lo que entendemos como todo Internet, estamos en realidad buscando sólo en el 0,03% de las páginas disponibles.

Para intentar explicar este tamaño, podemos ver uno de los usos de la Darknet. En muchos casos se trata de redes y tecnologías que permiten a los usuarios copiar y compartir material digital, sin que haya forma alguna de conocer las descargas que se realizan así como los usuarios que la integran. Las desventajas de este tipo de redes es la velocidad, aunque ya se están barajando varias posibilidades para ofrecer anonimato y mayor velocidad en un futuro a corto plazo.

Existe también por Internet algunos programas como Freenet o Tor que nos ayudan a conectarnos a Internet sin ser detectados, pasar al lado oscuro de Internet, la Darkweb.

Freenet fue creado hace años y nos permite chatear, leer, crear un sitio web o compartir archivos con un anonimato casi total. Se cree que hoy en día lo están usando mas de 2 millones de personas.

Una vez se accede al programa podemos ver el índice del contenido, donde se pueden acceder a sus contenidos o Freesites, algunos de ellos como: Iran News, Horny Kate, manuales de terroristas, como detectar pedófilos, códigos fuentes de todo tipo, revelaciones políticas de dudosa legalidad…

The Onion Router o TOR ofrece software gratuito para gente que busca comunicaciones anónimas. Es muy similar a Freenet.

Desde que se popularizó Google, se extendió también un dicho por Internet que decía, sino está en Google, es que no existe. El dicho se ha demostrado no ser cierto.

Algunos videos

Páginas secretas Illuminati

Como acceder a la Darknet mediante Windows

Como acceder a la Darknet mediante Ubuntu

Fuente 1: Documentalium

Fuente 2: 1984

Los operadores móviles del Reino Unido bloquean el acceso a Tor

Tor, el servicio que da la posibilidad de acceder a la red con cierto grado de anonimato, está siendo bloqueado por los operadores móviles en el Reino Unido. Así lo ha denunciado hace unas horas Open Rights Group tras advertir el bloqueo y acceso a la plataforma.

Como muchas sabrán, Tor es la herramienta que permite la navegación anónima, servicio que proporciona un enrutamiento IP en los usuarios con el fin de ayudar a eliminar cualquier información de identificación al pasar por una serie de IPs que “saltan”. Utilizada muchas veces como herramienta para aquellos ciudadanos que viven bajo regímenes dictatoriales que no permiten el libre acceso a Internet, Tor fue creada en un principio por el ejército de Estados Unidos para mantener un red propio que saltara la posible censura o vigilancia.

La denuncia de ORG pone nombre y apellidos a esta nueva censura para la plataforma. Serían Vodafone,O2Three y T-Mobile los operadores que estarían bloqueando el acceso sin previo aviso ni información a sus usuarios de la razón. Según la organización, la gran mayoría de quejas llegan desde aquellos clientes de prepago que no han facilitado su tarjeta de crédito:

Las compañías móviles siempre filtran la red móvil ya que no saben su sus teléfonos están siendo utilizados por niños o jóvenes. Esto ocurre de forma predeterminada en la mayoría de casos. Estos problemas serían un problema menor cuando se avisa, se xplica la manera de desactivar el filtro y la manera de informar de los posibles errores. Este, evidentemente, no es el caso.

Horas más tarde era O2 el que comunicaba que el acceso a Tor estaba bloqueado de manera deliberada:

Cualquier sitio clasificado como web “anonimizadora” no puede ser utilizada por los más jóvenes porque podrían acceder a contenido adultos. Esto se debe a que los sitios donde entras de manera anónima son capaces de eludir los filtros de contenidos adultos y por lo tanto podrían permitir a los niños acceder a material sin restricciones.

Más tarde y en contraste a las palabras pronunciadas por O2Vodafone dice que se debe a un error y que sería corregido:

Tor ha sido bloqueado por nuestro filtro de contenidos para adultos. No debe ser bloqueado y se debe a un error que será corregido.

Mientras, tanto Three como T-Mobile no ha respondido a las peticiones o explicaciones del bloqueo. Aún así, resulta extraño que un niño ni siquiera conozca lo que es Tor… mucho menos cómo funciona o para qué.

Fuente: ALT1040

Anonymous ataca al FBI en respuesta al cierre de Megaupload

20 de Enero de 2012 – El FBI informó de que está investigando el caso del ataque de ‘hackers’ que bloqueó el jueves los sitios web del FBI, la Casa Blanca, el Departamento de Justicia de EEUU y algunos sitios web de compañías de la industria musical.

Las autoridades de Estados Unidos cerraron ayer el portal de descargas Megaupload, lo que ha dejado a más de 150 millones de usuarios sin el servicio del intercambio de archivos. Pasados tan solo 180 minutos desde que la noticia se hiciera pública, el grupo de ‘hacktivistas’ Anonymous realizó lo que llamó ‘Operación Represalia‘.

Ante la noticia sobre el cierre del sitio MegauploadAnonymous anunció una serie de ataques dirigidos contra los sitios del FBI, la Casa Blanca, del Departamento de Justicia de EEUU y de la compañía Universal Music Group (UMG), entre otros.

Como resultado, la página web del Departamento de Justicia y de la de UMG se han caído. Otras páginas que han sufrido la acción de los ‘hackers’ han sido MPAA (Motion Picture Association of America) y la RIAA (Recording Industry Association of America).

Más tarde apuntaron, también con éxito, a las páginas de Warner Music y la Oficina del Copyright de EEUU.

La acción fue tan exitosa que en la cuenta @YourAnonNews se informó de que ha sido el mayor ataque coordinado con participación de usuarios. Más de 5500 personas utilizaron los recursos de Anonymous para producir ataques de denegación de servicio (DDoS).

El analista político Lajos Szaszdi comentó a RT que en medio de esta confrontación entre los gobiernos y los usuarios de Internet, los primeros van a tratar de reforzar la medidas de protección para no ser víctimas de ataques semejantes en sus páginas de Internet.

Después del ataque de Anonymous, los gobiernos van a usarlo como excusa para espiar a personas que ni siquiera son sus ciudadanos, pero que están presentes en ciberespacio en otros países“, opina el experto.

Una redada a nivel mundial

El  FBI en su comunicado subrayó que la operación reciente “se encuentra entre los mayores casos criminales contra los derechos de autor realizados por Estados Unidos“. Por el fallo de una corte federal de Virginia se han confiscado 18 dominios asociados a Megaupload. Además, se han confiscado aproximadamente 50 millones de dólares en activos. Mientras, en Nueva Zelanda, se ha declarado prisión preventiva para el fundador del portal, Kim Schmitz, conocido como Kim DotCom («puntocom», en español). Schmitz y otros tres directivos de Megaupload fueron detenidos en diversos operativos policiales llevados a cabo en Auckland.

La Policía de Nueva Zelanda también confiscó armas, objetos de arte, más de ocho millones de dólares estadounidenses y automóviles de lujo cuyo valor ronda los cinco millones de dólares. Los arrestados permanecerá en prisión hasta el próximo lunes. Todavía continúan libres otras tres personas mencionadas en la acusación. Además de en Nueva Zelanda, se realizaron redadas en Estados Unidos y otros nueve países, entre ellos Holanda y Canadá.

La última palabra de Megaupload

Megaupload, el sitio que según la agencia de clasificación Alexa se encuentra en el 72.º puesto en las páginas más visitadas de Internet, es especialmente popular entre los usuarios de España y América Latina y se encuentra entre los 20 sitios más populares en países como Argentina, México y Chile. También, Megaupload había gozado del apoyo de figuras de la cultura popular como los artistas y músicos Will.i.am, P Diddy y Alicia Keys.

Antes del cierre de la página, Megaupload publicó un comunicado en el que aseguraba que las acusaciones son “grotescamente pretenciosas“. “El caso es que la vasta mayoría del tráfico de Internet de ‘Mega’ es legítimo y estamos acá para quedarnos“, expresó. “Si la industria del contenido quisiera aprovechar nuestra popularidad, estamos felices de dialogar. Tenemos buenas ideas. Por favor pónganse en contacto“.

El contenido legal, también amenazado

En Twitter la etiqueta #Megaupload es uno de los tema del momento. Los usuarios están indignados por la medida. David Montalvo, usuario del servicio ‘Premium‘, dice en su cuenta de Twitter: “Internet hoy da un giro, puedes perder tus archivos LEGALES en la nube si el FBI lo decide. Te lo dice un usuario premium de #megaupload“.

No obstante, numerosos usuarios, al igual que varios expertos, dudan de que esta medida del Gobierno de Estados Unidos sea efectiva en la lucha contra descargas de obras intelectuales, siempre habrá numerosos portales que faciliten este servicio.

La clausura de Megaupload y los arrestos de sus ejecutivos se realizó solo un día después de que una “huelga” mundial en línea pareciera cuestionar la aprobación de los proyectos de ley que podrían facilitar el bloqueo de aquellos sitios web sospechosos de infringir los derechos de autor.

Los autores de la operacón indicaron que no hay ningún vínculo entre la polémica sobre la SOPA y PIPA y la reciente ofensiva contra Megaupload.

Sin embargo, el portavoz del partido Pirata de Cataluña, Kenneth Peiruza, comentó a RT que la operación es una muestra de que no hace falta aprobar estas leyes, porque ya existen legislaciones que puede cerrar un sitio web entero porque algunos usuarios intercambiaron contenidos ilegales.

Fuente: Russia Today

Página siguiente »