viernes, 27 de febrero de 2015

Estados Unidos ofrece una recompensa de 3 millones de dólares por un pirata informático

Cargando...
Ciberdelincuentes. Imagen tomada de: Diario TI.

El Departamento de Estado de Estados Unidos ha anunciado una recompensa de tres millones de dólares para aquel que aporte información que ayude a la captura del ciber-pirata ruso Evegeniy Mikhailovich Bogachev, por un virus con el que supuestamente robó 100 millones de dólares.

Los tres millones de dólares es la mayor recompensa ofrecida por información sobre los piratas informáticos más buscados por el Buró Federal de Investigación (FBI). 

Bogachev, alias "lucky12345" y "slavik", está siendo reclamado por el FBI por supuestamente crear un software conocido como "GameOver Zeus" que robaba información bancaria de sus víctimas y le permitió hacerse con millones de dólares de individuos y empresas estadounidenses. 

Durante dos años, el virus infectó a más de un millón de equipos informáticos. 

El Departamento de Justicia y otras agencias no consiguieron detener la extensión de este software, que obtenía información de usuarios de banca hasta mediados del año pasado. 

El Departamento de Estado dijo que cree que Bogachev se encuentra actualmente huido en Rusia. 

Estados Unidos considera que Bogachev es el líder de una sofisticada banda de cibercriminales que ha creado "GameOver Zeus" y otros virus de robo de información como "Cryptolocker". 

"Cryptolocker" infectó más de 250.000 computadoras, donde cifraba ficheros de las víctimas a las que demandaba el pago de un rescate. Bogachev está acusado de fraude bancario e informático, lavado de dinero, entre otros cargos criminales.

Tomado de: 20minutos

Estados Unidos adopta reglas históricas sobre Internet

Cargando...
Internet. Imagen tomada de: Diario TI.

La Comisión Federal de Comunicaciones (FCC, por sus siglas en inglés) de Estados Unidos aprobó una medida histórica para regular Internet.

Las nuevas reglas, conocidas como “neutralidad de la red”, actúan para proveer igualdad de oportunidades en velocidad de Internet y el acceso a los sitios.

La cuestión central era si los dueños de las redes en Estados Unidos, como Comcast o Time Warner Cable, pueden discriminar lo que corre en su cableado. La respuesta de la FCC fue clara: No.

La comisión aprobó por tres votos contra dos la autoridad del Gobierno estadounidense sobre Internet.

Ahora hay dos posturas en el debate, quienes dicen “¡Salvamos Internet!”, y quienes aseguran “¡Destruimos Internet con burocracia gubernamental!”.

No te creas ninguna de las dos y toma un respiro porque falta mucho camino por recorrer.

Las reglas de la FCC no serán oficiales hasta el verano. Para ese entonces, se espera que las compañías de telecomunicaciones reten las reglas en la Corte, y un juez podría ponerlas en pausa.

Por eso, en el corto plazo, nada cambia. Netflix no tendrá tranmisiones más rápidas ni AT&T o Comcast dejarán de colocar fibra de alta velocidad.

Netflix todavía podría llegar a acuerdos para tener acceso a una red más rápida.

Entonces, ¿qué pasó? La FCC se aseguró el poder para derrotar a un monstruo: el monopolio de los dueños de las redes que pueden matar la libertad de Internet al bloquear sitios o crear una línea rápida para las compañías tecnológicas ricas que pueden pagarlo.

Pero este monstruo es todavía una amenaza fantasma. En el pasado, las compañías hubieran sido ‘bullies’. Verizon bloqueó Google Wallet, AT&T no puede bloquear las apps para chatear por video y Comcast disminuyó la velocidad de sitios como BitTorrent. La FCC utilizó las reglas existentes para arreglar esos problemas.

Por ello hay preocupación por la forma en la que la FCC aseguró la neutralidad de la red. Para llevar a cabo las reglas, la agencia pondrá a las compañías bajo la Ley de Telecomunicaciones de 2934, que pone regulaciones a las compañías telefónicas. Las firmas dicen que esas reglas no aplican para los servicios que proveen y no creen en la promesa de la FCC de que aplicará solo una fracción de esas reglas y que no regulará tasas o alzas de impuestos.

¿Cómo comenzó a interesarnos este tema? Denle crédito al comediante John Oliver, quien logro que cuatro millones de televidentes enviaran comentarios a la FCC.

Tomó el tema desde el punto de vista de una persona que trata con el proveedor de Internet. Los planes son costosos y tienes pocas opciones. Claramente, los dueños de las redes son los chicos malos.

Esperen, hay una tercera opción. Mientras esta batalla llega a las cortes, el Congreso tiene la oportunidad para escribir reglas que funcionen.

Después de todo, tanto los dueños de las redes como los sitios tienen un punto. Los bloqueos y el comportamiento anticompetitivo deben ser ilegales. Por otro lado, por razones técnicas, los dueños de las redes necesitan manejar el tráfico. Tu video debe ser más rápido que tu correo para que la experiencia sea buena.

Por eso, los críticos descalificaron que el instrumento que la FCC utilizó hoy. Pero todavía no queda claro si es tan maravilloso o terrible como todo el mundo dice.

Tomado de: CNNExpansión

martes, 24 de febrero de 2015

5 tecnologías que te 'moverán' en el futuro

Cargando...
Silicon Valley. Foto: Getty Images. Imagen tomada de: cnnexpansion

En Sillicon Valley, desde Menlo Park hasta San José, California, miles de empresas enfocadas al desarrollo de productos y servicios tecnológicos, ensayan las tecnologías del futuro.

Si bien en este escenario no figuran carros voladores o extraterrestres, los desarrolladores de Silicon Valley advierten que en la próxima década los autos se conducirán solos, los drones serán parte de la logística urbana y los viajes en el tiempo y el espacio quizá sean más que fantasías de la ciencia ficción.

El vicepresidente de la red mundial de emprendedores Endeavor, Allen Taylor, dijo que actualmente son cinco rubros de negocio a los que apuesta Sillicon Valley.

“Les llaman moonshot technologies, se cree serán disruptivas: drones, autos autónomos, transporte colectivo de alta velocidad; nanosatélites y viajes en el espacio y tiempo”, dijo Taylor en entrevista con CNNExpansión.

Aunque todas tienen inversiones en capital y talento, Taylor advierte que los desarrollos en autos sin piloto e inteligentes son los más próximos en salir al mercado. Además de tecnológicas como Google, Uber y aparantemente Apple, las automotrices como Audi y Mercedes Benz apuestan a esta industria, participarán en el negocio que en 2020 valdrá 141,000 millones dólares según la consultora Allied Markets.

“La tecnología ya es un hecho pero creo que aún está por explorarse la viabilidad del negocio de esta innovación. Es una tecnología que sin duda llegó para quedarse por largo tiempo y espero en cinco, o máximo 10 años, poder ir a trabajar en un auto autónomo”, dijo.

El desarrollo de este tipo de autos se ve como la gran apuesta de Sillicon Valley. Tras desarrollar un dispositivo que permite cargar la pila de un smartphone en 60 segundos usando nuevas combinaciones de partículas, el desarrollador de origen israelí y fundador de Storedot, Doron Myersdorf, trabaja en tecnología para cargar los autos eléctricos del futuro en tan sólo cinco minutos.

“Vimos que es posible hacerlo con un smartphone. Ahora abrimos una nueva división de negocio para probar esta carga turbo en autos; podríamos cargar un Tesla en cinco minutos”, dijo Myersdorf en entrevista.

Sin embargo, la continuidad innovadora de Sillicon Valley no sólo vendrá en forma de auto. Para Taylor, el mercado de los drones, que se estima alcance un valor de 1,270 millones de dólares en 2020, tomará más fuerza en la próxima década.

La tendencia de drones se verá como un elemento propio de la logística urbana así como el transporte colectivo de alta velocidad como el que desarrolla Tesla ahora, el Hyperloop, que recorrería la distancia de Los Ángeles a San Francisco en 35 minutos.

El Valle que anhela talento

A la fecha y desde que se acuñó el término "Silicon Valley" en 1971, este pedazo del norte de California se ha caracterizado por su vibrante generación de nuevas empresas, las cuales, a la vuelta de cinco o 10 años marcan la pauta tecnológica para el resto el mundo.

“Hay mucho talento y mucha competencia que ya trabaja aquí; si aquí eres un startup y necesitas un ingeniero, ese talento, te lo vas a pelear con Apple, Twitter, Facebook y otras empresas; aquí la batalla es por el talento”, dijo Taylor.

Sin embargo, la carencia de una reforma migratoria que favorezca la llegada de talento nuevo al Valle es ahora el mayor reto de innovación en ese lugar.

“Necesitamos una reforma migratoria urgente para poder recibir a todo ese talento que puede nutrir a Silicon Valley de todas partes del mundo. Gente de India, Canadá y México, los necesitamos para seguir creciendo y no pueden venir por las restricciones migratorias; ese es nuestro gran reto ahora”, dijo el analista.

De acuerdo con Taylor, las reformas permitirán que mexicanos, indios, canadienses y europeos compartan su conocimiento con el Valle.

Tomado de: CNNExpansión

lunes, 23 de febrero de 2015

Intel Security revela las últimas técnicas de ingeniería social utilizadas por los cibercriminales

Cargando...
Phishing. Ilustración: PH Studio © Shutterstock.com. Imagen tomada de: DiarioTI.

Un nuevo informe de Intel Security y respaldado por el Centro Europeo del Cibercrimen de la Europol revela que las últimas técnicas de ingeniería social puestas en marcha por los cibercriminales son cada vez más sofisticadas y más difíciles de detectar. A través de estas técnicas, los cibercriminales consiguen que sus víctimas realicen acciones que normalmente no harían, y se suelen traducir en la pérdida de datos e información valiosa. Y también en cuantiosas pérdidas económicas y de reputación.

Este informe, denominado “Hacking the Human OS”, llega días después de que100 bancos de todo el mundo hayan confirmado que han sufrido ataques de malware que les causó daños estimados en 1.000 millones de dólares. Las redes y ordenadores de los bancos sufrieron ataques de phishing demostrando la debilidad inherente en el “firewall humano” y la necesidad de educar a los empleados sobre las principales técnicas de persuasión en el mundo digital.

“Lo más común que nosotros vemos cuando investigamos brechas de datos es el uso de ingeniería social para obligar al usuario a hacer algo que facilite la infección de malware sin que sea consciente de ello” afirma Raj Samani, EMEA CTO de Intel Security, asesor el Centro Europeo del Cibercrimen de la Europol y autor del informe.

Paul Gillen, Director de Operaciones del Centro Europeo del Cibercrimen de la Europol también comenta que “los cibercriminales no necesitan necesariamente un gran conocimiento técnico para conseguir sus objetivos. Confían en la manipulación psicológica para infectar los ordenadores de las víctimas a través de phishing, por ejemplo. Dichas víctimas son persuadidas para que abran adjuntos aparentemente legítimos o pulsen en un enlace en el cuerpo del correo electrónico que parece proceder de fuentes conocidas”.

Qué es la ingeniería social y categorías

Se trata de un conjunto de técnicas psicológicas y habilidades sociales utilizadas de forma consciente y premeditada por los cibercriminales para la obtención de información de terceros. Podría denominarse también como el sutil arte del engaño llevado a cabo a través de los usuarios, que en definitiva son el eslabón débil y que nos son conscientes del daño que pueden provocar. Un ataque que utilice ingeniería social puede dividirse en dos categorías:
  • Hunting: el objetivo es extraer información a través de una interacción mínima con el objetivo. Este enfoque generalmente implica un solo contacto entre el atacante y la víctima, y termina una vez que se ha conseguido la información.
  • Farming: en este caso el objetivo es establecer una relación continuada en el tiempo para “exprimir” al máximo a la víctima y extraer gran cantidad de información.
El informe también destaca un notable aumento en la sofisticación de las técnicas de ingeniería social. De hecho, los Laboratorios McAfee Labs han identificado un aumento en el uso de URLs sospechosas, con más de 30 millones identificadas a finales de 2014. Este aumento es atribuido al uso de nuevas URLs cortas, que con frecuencia esconden sitios web maliciosos y un aumento de las URLs de phishing. Estas URLs esconden en realidad el verdadero destino del enlace y suelen ser utilizadas por los cibercriminales para engañar a los empleados de las empresas. Es razonable preocuparse, teniendo en cuenta que un 18% de los usuarios está siendo víctimas de dichos emails de phishing.

El equipo de 500 investigadores de los laboratorios de McAfee Labs de Intel Security destaca el hecho de que dos tercios de los emails de todo el mundo son ahora spam destinado a la extorsión para obtener dinero e información confidencial del receptor. Esto supone que los consumidores y empleados deben estar alerta contra el phishing.

Según Javier Perea, regional director de Intel Security España, “las amenazas de ingeniería social son peores que el malware más intrusivo, ya que es más difícil protegerse frente a ellas. Especialmente porque el objetivo son las personas, no solo el sistema. En este sentido, la forma más eficaz de protegerse frente a estas amenazas es estar informado, y las empresas deben impulsar la educación en materia de seguridad, con el fin de mitigar los riesgos.”

La importancia de la seguridad y la gestión de políticas nunca han sido más evidentes. Sin embargo, un reciente estudio de Enterprise Management Associates, destaca que solo el 56% de los empleados ha recibido algún tipo de formación en seguridad, protocolos o políticas. El informe Hacking The Human OS de Intel Security revela algunas de las técnicas de persuasión básicas utilizadas actualmente por los cibercriminales, de las que todas las empresas y usuarios deben ser conscientes:

Seis puntos a tener en cuenta para enfrentarse al mundo digital

  1. Reciprocidad: Cuando a alguien se le proporciona algo, tiende a sentirse obligado a devolver el favor
  2. Urgencia: La gente tiende a obedecer cuando se les solicita información de una fuente de aparente confianza, como por ejemplo, cuando recibe un email que parece proceder de su banco pidiéndole que responda rápidamente o su cuenta será deshabilitada en 24 horas.
  3. Consistencia: Una vez que los usuarios se comprometen a hacer algo, suelen cumplir sus promesas. Por ejemplo, un hacker se hace pasar como parte de un equipo de TI de una empresa y podría instar a que un empleado cumpla todos los procesos de seguridad que determine, y pedirle entonces que lleve a cabo una tarea sospechosa, pero que está en línea con los requisitos de seguridad.
  4. Me gusta: Las víctimas suelen obedecer cuando les agrada la persona que con la que están interactuando. Un hacker podría utilizar sus encantos por teléfono o a través de la red para convencer a su víctima.
  5. Autoridad: Se tiende a obedecer cuando la solicitud procede de una figura con autoridad. Un ejemplo podría ser un email para el departamento financiero que podría proceder, aparentemente, del CEO o Presidente.
  6. Validación social: Solemos obedecer cuando vemos que los otros también lo hacen. Por ejemplo, un correo electrónico puede tener aspecto como si hubiera sido enviado por un grupo de empleados, que hace creer a otro empleado que es adecuado si ve que otros también lo han recibido.
Ver informe: clic aquí

Tomado de: Diario TI

La NSA y el GCHQ también han introducido programas espías en las SIM de los móviles

Cargando...
Dispositivos móviles. Imagen tomada de: cdnnet.kalooga.com

El Cuartel Gubernamental de Comunicaciones británico (GCHQ) y su más conocido homólogo estadounidense, la Agencia Nacional de Seguridad (NSA) nunca dejan de sorprender con sus métodos para espiarnos. Lo último que hemos sabido es su logro de hackear al mayor fabricante mundial de tarjetas SIM

La información se ha conocido gracias a nuevos descubrimientos efectuados en los documentos filtrados por el exanalista de la NSA Edward Snowden y dejaría fuera de su radio de acción a contadísimos usuarios de telefonía móvil dado que desmostrarían que la NSA y el GCHQ habían hackeado al mayor fabricante mundial de tarjetas SIM para móviles, de manera que casi podría afirmarse que todos los dispositivos móviles del mundo (móviles y tablets) en los que se albergue una tarjeta SIM estarían potencialmente en manos de estos dos organismos de seguridad y espionaje.

Ambos habrían conseguido de manera conjunta del fabricante Gemalto (una empresa que suministra SIMs en 85 países) los códigos de seguridad que permiten cifrar la información contenida en las tarjetas que constituyen el corazón de los dispositivos móviles. Habiendo accedido a esa información las agencias mencionadas eran capaces de monitorear las llamadas de voz y las comunicaciones electrónicas de más de 450 proveedores de acceso a la red de telefonía móvil en todo el mundo sin necesidad de contar con la autorización de compañías telefónicas ni gobiernos extranjeros.

Ni siquiera una vez difundida la información obtenida de los documentos de Snowden el fabricante de las SIM, Gemalto, ha sido capaz de encontrar todavía el acceso ganado por la NSA y el GCHQ, lo que daría buena prueba de lo bien “escondido” que habían conseguido ocultarlo.

Tomado de: TheInquirer

Quién hereda un perfil en una red social o archivos en la 'nube' cuando el propietario fallece

Cargando...
Datos en la red. Imagen tomada de: Vanguardia.com

Hace pocos días conocíamos que Facebook permite designar herederos digitales que gestionen la cuenta de una persona fallecida. Pero, ¿qué ocurre en general con los archivos almacenados en la 'nube' de ésta, sus perfiles y cuentas de correo? 

La legislación todavía no es del todo clara a este respecto y, además, es posible que los familiares de una persona que ha muerto tengan que pasar una buena temporada indagando el modo más rápido para borrar todos los rastros de su vida digital una vez haya fallecido. Sin embargo, un sencillo documento llamado testamento digital puede acortar mucho el proceso. Desde Eroski Consumer se aportan todas las claves.

Testamento digital

El testamento digital no es una figura que difiera apenas del testamento normal que hacen todas las personas a una determinada edad ante un notario. De hecho, la vía más tradicional de hacer testamento digital sería acudir a un notario y redactar un documento con todos los servicios de correo, de almacenamiento de datos o páginas web, redes sociales o de sistemas de crédito y pago donde se tiene cuenta abierta en Internet. 

Además, hay que explicar qué se quiere que se haga con ellos: si se deben cancelar o si se desea que se sigan pagando las cuotas anuales en caso de que sean servicios de pago. O bien, si se quiere que desaparezca o no toda la información relativa a la persona que haya en estos servicios o si se prefiere que sea remitida a sus familiares para que la conserven. 

Una opción que se debe contemplar es la de adjuntar en el documento todas las claves de entrada y nombre de usuario en los distintos servicios. No obstante, si se cambia de contraseña con frecuencia, tal como se recomienda, no se puede acudir al notario a modificar el testamento cada vez que se haga.

En el testamento también es importante indicar qué personas serán las encargadas de hacer las gestiones, o al menos de aprobar su identidad para que otros las realicen, relativas a la vida personal en la Red. También se pueden dejar indicaciones como a quién de los contactos hay que avisar en persona del cese de las actividades vitales del usuario, o si se desea una página en Facebook dedicada y con obituario, o una foto en Instagram, un tuit de despedida a modo de epitafio, etc.

Política de algunos de los servicios más habituales

Productos de Google: 

De todos modos, y aparte de la voluntad personal, cada servicio tiene su particular política respecto a estos casos tan especiales. Algunos buscan la facilidad de gestión, como es el caso de Google, que implementó en 2013 el apartado Administrador de cuentas inactivas, al que deben remitirse los familiares del finado para gestionar el fin de la actividad en Google+, Gmail, Google Drive y otros productos del buscador. Este, tras comprobar el grado de parentesco que se tenga con el fallecido, dará de baja las cuentas. En este sentido, el testamento digital puede clarificar mucho qué es lo que se quiere que Google haga con el material que se tenía cuando la persona vivía. 

Apple: 

Sin embargo, las voluntades del testamento pueden, en ocasiones, chocar con las condiciones de uso de ciertos servicios y empresas. Así, Apple considera que el derecho de la persona sobre todos los contenidos comprados en la tienda iTunes, o conservados en iCloud o iTunes Music Match, terminan con la muerte, por lo que tras comprobar que esta ha sucedido, puede dictaminar su destrucción. 

Flickr: 

Por lo tanto, en el testamento conviene fijar si se quiere que con las contraseñas que se facilitan se pueda descargar material a un disco duro privado, por ejemplo, fotografías o canciones adquiridas. Lo mismo sucede con las imágenes guardadas en Flickr. En principio, al morir se deja de pagar la cuota anual y se pierde derecho sobre ellas, pero mientras se ostenta la titularidad, se puede permitir a los descendientes que gestionen la baja y antes se descarguen a un ordenador las fotos. 

Facebook, Instagram y Twitter:

En otros casos, como es el de Facebook, existe una página para comunicar el fallecimiento por parte de un familiar. La red comprueba la veracidad de la noticia y después deja convertir la página del difunto en una especie de panteón digital conmemorativo. Instagram tiene una página con el mismo cometido y permite las mismas acciones que en Facebook. Twitter también tiene su página de notificaciones y tras el estudio de la documentación aportada procede al borrado de la cuenta. 

Dropbox: 

Si tenemos las claves del fallecido, porque él las ha dejado en el testamento digital, podemos salir nosotros mismos de muchos de estos servicios o borrar los contenidos sin necesidad de tantos prolegómenos. Sin embargo, el asunto es más delicado en el caso de servicios de almacenamiento y sincronización de datos tipo Dropbox, porque podríamos ser acusados de suplantación de la personalidad y acceso a archivos privados. En tales supuestos, y para curarse en salud, es mejor ponerse en contacto con el servicio y comunicar el fallecimiento a fin de que sean ellos los que borren los archivos almacenados en sus servidores y den de baja la cuenta. Esto no quita que con las claves del finado, y siempre que así lo indique él en su testamento, podamos hacer copias de determinados archivos o solicitarlas al servicio en cuestión.

Lugares donde hacer el testamento digital

Existen ciertos servicios web que serían el equivalente de un notario pero en digital: 

Netarius es uno ellos. En su sitio, y previa elección del servicio que se quiera, se pueden dejar en un formulario o archivo las últimas voluntades y las claves de los servicios que se utilizan. Estos datos se envían a unos servidores seguros, donde esperan el momento del fallecimiento de la persona. Hay que dejar alguna indicación de que se tiene contratado el testamento con ellos, algo que comprobarán con el certificado de defunción. Una vez certificada la muerte, Netarius ejecutará todas las gestiones que se le habían pedido, que pueden ir desde la descarga de archivos y entrega de copias de los mismos a determinados usuarios, a la elaboración de páginas conmemorativas o el cierre de cuentas de servicios.


Tellmebye: es un servicio con los mismos cometidos y orientaciones que, además, ofrece encargarse de almacenar los archivos que se deseen retirar de diferentes redes y sitios, para entregárselos a las personas que se hayan indicados.

Tomado de: 20minutos

viernes, 20 de febrero de 2015

Error humano, puerta abierta a los hackers – que puede ser cerrada al cumplir norma ISO

Cargando...
Trabajo. Foto: © Sofie Delauw/Corbis. Imagen tomada de: semana.com.

De acuerdo con la empresa de seguridad empresarial Blue Coat Systems, basta con un descuido humano y la infraestructura de seguridad de una organización no será un escudo suficiente para detener un ataque virtual.

“Dejar a la vista de todos un post-it con las contraseñas anotadas, olvidar información confidencial en algún lugar o caer en las trampas de la ciberdelincuencia, siguen siendo las negligencias más comunes entre los empleados, lo cual puede ocasionar grandes pérdidas económicas para una compañía”, escribe la compañía en un comunicado, donde agrega que “lamentablemente, el empleado continúa siendo el eslabón más débil en el ecosistema empresarial, siendo el error humano, en su mayoría no intencionado, la principal causa de incidentes de seguridad que provocan pérdidas de datos”.

De acuerdo con el reciente estudio del Grupo de Usuarios Independientes de Oracle, el 81% de los trabajadores considera que el error humano constituye el mayor riesgo en el manejo de los datos empresariales, seguido por el temor a los ataques internos (65%). También en un 54% preocupa el abuso de los privilegios de acceso por parte del personal de las Tecnologías de la Información y en un 53% los códigos maliciosos o virus.

A pesar de los descuidos personales, muchos de los encuestados indicaron que aplican relativamente pocas protecciones para prevenir el abuso accidental o intencional del empleado.

Además, los resultados de esta encuesta destacan que las empresas son muy débiles en los controles preventivos, de detección y administrativos, incluso los controles internos de uso privilegiado son limitados, carentes del conocimiento de donde radica la sensibilidad de los datos así como de un monitoreo inadecuado de la actividad de los usuarios privilegiados.

Por su parte, la última encuesta realizada por IT Governance entre altos ejecutivos coincide en señalar que el 54% de los entrevistados opina que sus propios empleados representan la principal amenaza de seguridad, frente a 27% que opina que los hackers son el principal riesgo, 12% que culpa a los ataques dirigidos, y 8% a sus rivales corporativos. Por otro lado, las compañías no ignoran los riesgos, ya que 77% de los directivos asegura que sus organizaciones cuentan con un método para la detección y notificación de los ataques o incidentes.

Los atacantes externos y la constante evolución de sus métodos y acciones representan una gran amenaza para las compañías, pero los peligros asociados con las amenazas internas pueden ser igualmente destructivos y traicioneros. De acuerdo con Ponemon Institute, el comportamiento de los empleados es uno de los problemas que más afectan a las organizaciones actualmente, esto se ha incrementado en un 22% desde que realizó el primer estudio sobre fuga de datos.

Por ello, Blue Coat recomienda a las empresas cumplir con la norma ISO 27001, el estándar internacional emitido por la Organización Internacional de Normalización (ISO), que establece las mejores prácticas para la gestión de seguridad de la información. Entre sus diversas disposiciones, ésta hace referencia a la seguridad ligada a los recursos humanos, que debería enfocarse desde la definición de las funciones y los recursos hasta la finalización de la relación laboral, incluyendo la seguridad en el desarrollo de las funciones de los empleados.

También se asegura que todo el recurso humano (empleados, contratistas y terceros) vinculados con la empresa entiendan sus responsabilidades y estén en las condiciones para desarrollarlos; de esta forma se pueden reducir riesgos de fraude y uso inadecuado de los activos de información de la empresa. La norma ISO 27001 puede ser implementada en cualquier tipo de organización, con y sin fines de lucro, privada o pública, pequeña o grande.

Tomado de: Diario TI

Android 5.1 Lollipop llegará en marzo

Cargando...
Android. Imagen tomada de: Wikipedia.org

Han aparecido algunas evidencias que apuntan a que en pocas semanas podría estar disponible la siguiente versión del sistema operativo del androide verde, aunque como ha sucedido en ocasiones anteriores los primeros en disfrutarlo serían los usuarios de un modelo muy concreto, los Google Nexus.

El origen del rumor está en un tuit publicado por Mo Versi, un ejecutivo de la firma taiwanesa HTC, donde sugería que en marzo tendría lugar una actualización de Android, que se correspondería con la versión 5.1 Lollipop, al menos para los propietarios de los terminales Google Nexus. 

Como anteriormente ya ha sucedido, son los terminales de la propia Google los primeros en recibir estas actualizaciones, en parte como forma de “premiar” a quienes confiaron en ellos y también un poco como forma de “dejar claro quién manda” en un ecosistema del que participan una infinidad de marcas. 

La respuesta por parte del ejecutivo de HTC surgió a raíz de la consulta de un usuario acerca de los botones capacitivos del HTC One M7 GooglePlay Edition. Mo Versi tuiteó “Estará solucionado con la próxima RM de Google que tendrá lugar en marzo”. El término RM se correspondería con revisión de mantenimiento (en inglés MR, maintenance release). Algunos apuntan a que podría no tratarse de una actualización tan profunda y corresponderse con una más liviana que podría denominarse 5.0.2.

Tomado de: TheInquirer

jueves, 19 de febrero de 2015

Una niña de siete años es capaz de 'hackear' una wifi y acceder a datos privados en 10 minutos

Cargando...
Uso de puntos de acceso público a Internet. Imagen tomada de: El Tiempo.com

Betsy Davis, una niña londinense de siete años, tardó menos de 11 minutos en hackear una red wifi y acceder a datos de terceros de forma ilegal. 

Así lo demostró a la empresa de seguridad 'Hide my Ass, que planteó a la pequeña Betsy el desafío, con el que se pretendía demostrar los peligros que tiene conectarse a este tipo de redes sin la seguridad conveniente. 

Esta niña aficionada a la tecnología logró superar el reto en tan solo 10 minutos y 54 segundos, con la ayuda de una búsqueda rápida en Google, según recoge la BBC. 

Los puntos de acceso público a Internet, conocidos en inglés como hotspots, son redes que hay en bares, restaurantes, edificios públicos o incluso en zonas abiertas de las ciudades, como los parques. Los hackers pueden acceder a los datos que se introducen a través de esas redes cuando los usuarios entran en su perfil de una red social, por ejemplo, o cuando se comunican con su banco. 

Algunos no requieren un nombre de usuario y contraseña, por lo que están abiertos a cualquiera.

Para Betsy fue un juego de niños aprender cómo establecer un punto de acceso como los que utilizan los hackeadores para realizar los llamados ataques de "hombre en el medio", en los que se puede leer y modificar los mensajes entre dos partes sin que ninguna lo sepa. 

El Parlamento Europeo tuvo que desconectar el año pasado su sistema de wifi público tras ser objeto de uno de estos ataques. 

"Los resultados del experimento son preocupantes, pero no del todo sorprendentes", afirmó el hackeador profesional Marcus Dempsey, que trabaja analizando la seguridad en las redes de las empresas. 

A su juicio, es muy fácil entrar en el dispositivo de un extraño y más en este momento, donde los niños saben más de tecnología que los adultos. 

Si una niña con 7 años es capaz de hacerlo, son millones las personas que cada día podrían robar información privada.

Tomado de: 20minutos

Microsoft adopta el primer estándar internacional de privacidad en la Nube

Cargando...
Microsoft

Microsoft anunció la certificación de la norma ISO/IEC 27018, el primer estándar internacional que regula los servicios en la Nube. De esta manera Microsoft se convierte en el primer gran proveedor mundial en adoptar este estándar que exige a los prestadores transparencia, seguridad, privacidad y protección en el tratamiento que dan a los datos de los usuarios.

El estándar tiene importantes beneficios para los clientes empresariales alrededor del mundo. Es conocido como ISO/IEC 27018 y fue desarrollado por la Organización Internacional para la Estandarización (ISO, por sus siglas en inglés) para establecer un enfoque internacional y uniforme que permita proteger la privacidad de los datos personales almacenados en la Nube.

El Instituto Británico de Estándares (BSI) verificó de manera independiente que Microsoft Azure, Office 365 y Dynamics CRM Online, están alineados con el código de práctica del estándar para la protección de la Información Personal de Identificación en la Nube pública. De manera similar, Bureau Veritas ha hecho lo mismo para Microsoft Intune.

“La adopción de este estándar evidencia el compromiso que asumimos en proteger la privacidad de la información de nuestros clientes. Nadie razonablemente va a usar un producto o servicio en el que no confía. Una Nube segura y confiable permitirá que todas las personas, empresas y organizaciones puedan aprovechar la increíble potencialidad de esta herramienta”, consideró Alejandro Anderlic, Director de Legales y Asuntos Corporativos de Microsoft Argentina y Uruguay.

Microsoft, al adherir al estándar ISO 27018 asegura a los clientes empresariales lo siguiente:
  • Control: Los usuarios son dueños de sus datos y son ellos quienes ejercen el control de los mismos. A partir de la adhesión a este estándar, Microsoft sólo es responsable de procesar los datos personales de acuerdo a las instrucciones que el dueño de la información le da.
  • Transparencia: La adherencia al estándar asegura la transparencia sobre las políticas referentes al retorno, transferencia y eliminación de información personal que los usuarios guardan en la Nube. Microsoft notificará con precisión dónde está almacenada físicamente la información también se informará en caso que haya un acceso no autorizado a los equipos de procesamiento o a las instalaciones que resulten en pérdida, divulgación o alteración de los datos personales.
  • Protección: La adherencia a ISO 27018 asegura la existencia de restricciones definidas sobre el manejo de los datos personales, incluye restricciones sobre su transmisión en redes públicas, almacenamiento en dispositivos móviles y procesos adecuados para la recuperación y restauración de datos. Además, el estándar asegura que todo el personal que procese datos personales esté sujeto a políticas de confidencialidad.
  • Privacidad: Los datos no serán utilizados para publicidad. Cada vez son más los clientes empresariales preocupados por la utilización de sus datos -sin su consentimiento- con fines publicitarios.
  • Compromiso: Microsoft informará a los dueños de los datos en caso que un gobierno demande acceso a los mismos. El estándar requiere que las solicitudes por parte de las autoridades gubernamentales o judiciales para divulgar datos personales sean dadas a conocer a los usuarios, excepto que esta divulgación esté prohibida por la ley.
“Todos estos compromisos son aún más importantes en el ambiente legal actual, en el que las empresas tienen sus propias obligaciones de cumplimiento regulatorio relacionadas con la protección de datos personales. Somos optimistas en que el estándar ISO 27018 puede servir como una plataforma tanto para reguladores como para clientes en su búsqueda de asegurar una fuerte protección de la privacidad y la transparencia”, consideró Anderlic.

Tomado de: Diario TI

Un padre de Internet recomienda imprimir las fotos y alerta de que en el futuro podrían desaparecer

Cargando...
Vinton Cerf es conciderado uno de los padres de Internet. (Juan González /EFE) Imagen tomada de: 20minutos.es

Cada día, millones de documentos e imágenes se suben a Internet, se guardan en discos duros o en memorias USB. Pero, toda esta información, ¿estará disponile dentro de un siglo? La respuesta a esta pregunta puede ser 'n0', según uno de los padres de Internet y actual vicepresidente de Google, Vint Cerf, que en una conferencia en San Jose, California, ha advertido de que nos enfrentamos a una "edad oscura digital", según recoge la BBC. 

Por ello, Cerf recomienda tomar decisiones como por ejemplo, "imprimir las fotos". Y es que el problema, para Cerf, es que la continua innovación en 'hardware' y 'software' puede dejarnos sin herramientas para leer esos archivos. "En cierta medida, ya lo estamos viendo. Ya no podemos abrir los documentos o presentaciones creados en formatos viejos con la versión más reciente de nuestro 'software', porque la compatibilidad con sistemas y aplicaciones anticuados no está garantizado", dice Cerf, que pone como ejemplo los viejos disquetes, cuyo contenido es difícil de extraer porque ya no hay casi ordenadores que los puedan leer, y ni siquiera tienen una ranura para introducirlos. 

"En el siglo XXII y en los siguientes, tendrán grandes dificultades para saber mucho de nosotros, porque gran parte de lo que dejemos serán bits imposibles de interpretar para ellos", dice Cerf, que añade que "aunque acumulemos vastos archivos digitales, puede que terminemos por no saber qué contienen". 

Además de realizar copias físicas de los documentos, Cerf propone la creación de museos que alberguen cada pieza de 'hardware' y 'software' que crea el ser humano. Pero además, relizar "un retrato con Rayos X del contenido, la aplicación y el sistema operativo, y guardarlo todo junto a la descripción de la máquina en la que se ejecutan".

Tomado de: 20minutos

miércoles, 18 de febrero de 2015

Kaspersky descubre el antepasado de Stuxnet y Flame: El “todopoderoso” Equation Group

Cargando...
Ciberdelincuentes. Imagen tomada de: Diario TI.

Durante varios años, el GREAT de Kaspersky Lab ha seguido de cerca más de 60 actores de amenazas avanzadas responsables de ciberataques de todo el mundo. El equipo de analistas, que ha visto ataques cada vez más complejos a medida que los Estados se involucraron y trataron de armarse, confirman que han descubierto un actor de amenaza que supera todo lo conocido en términos de complejidad y sofisticación técnicas y que ha estado activo durante casi dos décadas – Equation Group.

Según los investigadores de Kaspersky Lab, es único en casi todos los aspectos de sus actividades: utiliza herramientas que son muy complicadas y caras de desarrollar, con el fin de infectar a las víctimas, recuperar datos y ocultar la actividad de una manera extraordinariamente profesional y utiliza técnicas del espionaje clásico para entregar cargas maliciosas a las víctimas.

Para infectar a sus víctimas, Equation Group utiliza un potente arsenal de “implantes” (troyanos), incluyendo los siguientes: EquationLaser, EquationDrug, DoubleFantasy, TripleFantasy, Fanny y GrayFish.

¿Qué hace a Equation Group único?

Persistencia e invisibilidad: El GREAT ha sido capaz de recuperar dos módulos que permiten una reprogramación del firmware del disco duro de más de una docena de marcas populares de HDD. Esta es quizás la herramienta más poderosa de Equation Group y el primer malware conocido capaz de infectar a los discos duros.

Reprogramando el firmware del disco duro (es decir, volver a escribir el sistema operativo del disco duro), el grupo logra dos propósitos:

1. Un nivel de persistencia extremo que ayuda a sobrevivir al formateo del disco y a la reinstalación del sistema operativo. Si el malware se mete en el firmware, ya está listo para “resucitar” para siempre.

“Otra cosa peligrosa es que una vez que el disco duro se infecta con esta carga maliciosa es imposible escanear su firmware. En pocas palabras: para la mayoría de los discos duros hay funciones para escribir en el área de firmware del hardware, pero no hay funciones para leer de nuevo. Significa que estamos prácticamente ciegos y no podemos detectar los discos duros que han sido infectados por este malware”- advierte Costin Raiu, director del Equipo de Investigación y Análisis Global de Kaspersky Lab.

2. La capacidad de crear una zona invisible, persistente, oculta dentro del disco duro. Se utiliza para guardar información extraída que puede ser posteriormente recuperada por los ciberatacantes. Además, en algunos casos puede ayudar al grupo cancelar el cifrado.

“Teniendo en cuenta el hecho de que su implante GrayFish está activo desde el arranque del sistema, tienen la capacidad de capturar la contraseña de cifrado y guardarlo en esta oculta zona”, explica Costin Raiu.

Capacidad para recuperar datos de redes aisladas: El gusano Fanny destaca de entre todos los ataques perpetrados por Equation Group. Su objetivo principal es mapear redes con “air gap”, es decir, entender la topología de una red que no puede ser alcanzada y ejecutar comandos para esos sistemas aislados. Para ello se utiliza un mecanismo de control y comando alojado en un USB que permite a los atacantes intercambiar datos entre redes con “air gap”.

Concretamente, un USB infectado presenta una zona de almacenamiento oculta que se utiliza para recoger información básica del sistema de un ordenador no conectado a Internet que se envía al C&C cuando el dispositivo USB se conecta a un equipo infectado por Fanny con acceso a Internet. Si los atacantes quieren ejecutar comandos en las redes “air gap” pueden hacerlo guardándolos en la zona oculta del USB. Cuando este USB se introduce en un equipo “air gap”, Fanny reconoce los comandos y los ejecuta.

Métodos clásicos de espionaje para propagar malware: Los ciberdelincuentes utilizaron métodos universales para llegar a sus objetivos tanto a través de la web como en el mundo real. Para ello, interceptaban objetos físicos y los reemplazaban por versiones infectadas; por ejemplo, los participantes de una conferencia científica en Huston recibieron una copia del material del evento en un CD-ROM que fue utilizado para instalar Double Fantasy en los equipos objetivo.

Amigos infames: Stuxnet y Flame

Hay vínculos que relacionan a Equation Group con otros grupos poderosos como los operadores Stuxnet y Flame. Además, tenía acceso a zero-days antes de que fueran utilizados por Stuxnet y Flame y en algún punto, han compartido exploits .

Por ejemplo, en 2008 Fanny utilizó dos zero-days que se introdujeron en Stuxnet en junio de 2009 y marzo de 2010. Uno de esos zero-days de Stuxnet era,de hecho, un modulo de Flame que explota la misma vulnerabilidad y que fue extraído directamente de la plataforma de Flame para introducirse en Stuxnet.

Infraestructura potente y geográficamente distribuida

Equation Group utiliza una extensa infraestructura C&C que incluye más de 300 dominios y más de 100 servidores. Los servidores están alojados en múltiples países, incluyendo Estados Unidos, Reino Unido, Italia, Alemania, Holanda, Panamá, Costa Rica, Malasia, Colombia y República Checa. Kaspersky Lab está actualmente ‘secuestrando’ un par de docenas de los 300 servidores C&C.

Miles de víctimas de alto perfil en todo el mundo

Desde 2001, Equation Group ha infectado miles, o incluso, decenas de miles de víctimas en más de 30 países en todo el mundo, de los siguientes sectores: instituciones gubernamentales y diplomáticas, telecomunicaciones, aeroespacial, energía, investigación nuclear, petróleo y gas, nanotecnología, activistas islámicos y escolares, medios de comunicación, transporte, instituciones financieras y empresas que desarrollan tecnologías de cifrado.

Detección

Kaspersky Lab observó siete exploits que Equation Group usaba en su malware. Al menos, cuatro de ellos fueron usados como zero-day. Además, se observó el uso de exploits desconocidos, posiblemente zero-day, contra Firefox 17, tal como se usa en el navegador Tor.

Durante la fase de infección, el grupo tenía la habilidad de usar diez exploits en cadena. Sin embargo, los expertos de Kaspersky Lab observaron que no usaban más de tres: si el primero no tenía éxito, probaban con otro y luego con el tercero. Si los tres exploits fallaban, no infectaban el sistema.

Los productos de Kaspersky detectaron un número de intentos de atacar a sus usuarios. Muchos de estos ataques no tuvieron éxito debido a la tecnología de prevención automática de exploits, que detecta y bloquea genéricamente la explotación de vulnerabilidades desconocidas. El gusano Fanny, presumiblemente agrupado en julio de 2008, se detectó por primera vez y se integró en la lista negra de nuestros sistemas automáticos en diciembre de 2008.

Más información sobre Equation group en Securelist.com.

Tomado de: Diario TI

Finaliza la mayor actualización de HTTP en 16 años con la aprobación de HTTP/2

Cargando...
Dominios de Internet. Imagen tomada de: mimundointernet.blogspot.com.

Mark Nottingham, presidente del grupo de trabajo de HTTP en IETF anuncia hoy en su blog que IESG (Internet Egineering Steering Group) ha aprobado oficialmente la especificación HTTP/2, con lo que ésta pasa formalmente a convertirse en un estándar. Lo mismo ocurrió con HPACK, especificación para la compresión de cabeceras en HTTP/2.

HTTP/2 se basa en gran medida en SPDY, una versión mejorada de HTTP 1.1, desarrollada directamente por Google. Varios navegadores, servidores web y grandes sitios ya utilizan esta tecnología, pero la propia Google anunció recientemente que el soporte para Chrome sería desfasado en el navegador Chrome, en beneficio de HTTP/2.

Uno de los elementos más importantes del anuncio es que HTTP/2 no presenta riesgo alguno de que las soluciones actuales dejen de funcionar. Es decir, todo interfaz de programación de HTTP se mantiene inalterable y, para el caso de los usuarios, sólo es necesario actualizar el navegador.

La noticia principal de HTTP/2 es que el protocolo permite que una serie de las notificaciones intercambiadas entre clientes y servidores puedan ser unificadas mediante multiplexación de conexión asíncrona y compresión de cabeceras. Es decir, los datos pueden ser transmitidos simultáneamente mediante la misma conexión. En la práctica, sólo es necesario crear una conexión entre el cliente y servidor desde el que se está descargando información, en lugar de tener activas varias conexiones paralelas. Éste procedimiento reduce la carga de trabajo del servidor, procurando además que las llamadas hechas al servidor, y que éste debe responder, no bloqueen otras llamadas. Naturalmente, para aprovechar al máximo lo anterior, es necesario que la mayor parte del contenido sea ofrecido desde el mismo servidor.

Pre-almacenamiento

HTTP/2 también hace posible para los servidores transmitir datos al caché del navegador para su uso posterior. Éste procedimiento puede ser relevante, por ejemplo, para hojas de estilo en cascada, CSS, después que éstas hayan sido actualizadas. Cabe señalar que siempre será posible para el cliente negarse a recibir contenidos que no ha solicitado directamente.

Cifrado

La especificación HTTP/2 no requiere el uso de cifrado. Sin embargo, Mark Nottingham escribe que algunos actores, como por ejemplo Google y Mozilla, consideran que la única forma segura de implementar el nuevo protocolo en la Internet abierta es utilizando cifrado. Esto implica, en la práctica, que los navegadores Chrome y Firefox no incorporarán soporte para HTTP/2 a menos que también se implemente, paralelamente, la tecnología de cifrado TLS.

Parte del problema está vinculado al hecho de que gran parte de los equipos en Internet, como por ejemplo cortafuegos y servidores, no están preparados para HTTP/2. Según Nottingham, esto podría resultar en problemas de seguridad y de interoperabilidad cuando estos dispositivos intenten interpretar una conexión HTTP/2.

La incorporación de HTTP/2 podría resultar además en una mayor seguridad de Internet debido a que el nuevo protocolo podría motivar mayor cifrado en contenidos web.

Tomado de: DiarioTI

lunes, 16 de febrero de 2015

3 riesgos de no apagar nunca el WiFi de tu móvil

Cargando...
WIFI

No apagar el WiFi de tu dispositivo móvil puede ser una vía para el robo de identidad o de información personal sensible, de acuerdo con Jude McColgan, presidente de la división Móvil de la firma de seguridad Avast.

Más del 75% de los mexicanos nunca o “sólo algunas veces” apaga la antena WiFi de su equipo, y 76% prefieren conectarse a las redes inalámbricas públicas que no requieren contraseña, según una de Avast a más de 8,000 usuarios en el país.

“Los criminales han entendido que el escenario de seguridad móvil no es el mismo que el de PC, los riesgos o amenazas no son los mismos. En computadoras el usuario se puede preocupar por temas como códigos maliciosos, pero en movilidad, ataques como los llamados 'Man in the Middle' son lo que deberían preocuparnos”, dijo McColgan.

El riesgo principal es que a diferencia de las computadoras, los smartphones y tablets tiene un elemento que los hace más vulnerables: siempre están encendidos.

Si un usuario mantiene encendido las antenas de comunicación WiFi o Bluetooth de su teléfono o tablet, éstas constantemente transmiten información o escanean los alrededores para detectar dispositivos u otras redes a las que puedan conectarse.

Uno de los principales riesgos, según el experto de Avast, está en el uso de la redes públicas, comúnmente utilizadas en cafeterías, universidades o comercios, las cuales pueden ser vulneradas con programas que cualquier usuario puede comprar en la red por menos de 1,000 pesos para espiar conversaciones o robar información del equipo.

Según datos de la encuesta de Avast, al menos 90% de los mexicanos utilizan este tipo de redes una vez al mes, y más del 50% lo hacen a diario o por lo menos más de una vez por semana.

Las razones: 34% por no consumir todos sus datos, 29% por no tener plan de datos y 25% por conveniencia.

“La mayoría de los mexicanos no se dan cuenta de que toda la información personal almacenada en sus dispositivos móviles se vuelve indefensa al utilizar una red WiFi pública sin protección. Estas redes crean un fácil punto de acceso para los hackers que les permite atacar diariamente a miles de consumidores mexicanos”, dijo McColgan.

Estos son los 3 riesgos más comunes de navegar en redes públicas o de nunca apagar tu WiFi.

1. Ese hombre no soy yo

Los llamados ataques 'Man in the Middle' (MitM) dan al atacante la capacidad de leer, insertar o modificar mensajes entre dos puntos, sin que ninguno de ellos conozca que existe un tercero colgado de la comunicación.

Este tipo de ataques son particularmente, peligrosos pues permiten al atacante recibir toda la información que el usuario esté transmitiendo desde su dispositivo.

¿Cómo sucede?

Aunque requiere cierto dominio técnico, los MitM son más fáciles de ejecutar en redes públicas como las de cafeterías, pues al estar abiertas no tinen cifrada la comunicación, lo que permite al atacante conocer o recabar los paquetes de información que podrías estar enviando entre tu móvil y tu servicio de banca en línea o tus redes sociales.


¿Cómo defenderse?

La recomendación es utilizar programas o servicios de redes virtual protegidas, conocidos como VPN, que cifran todo los datos de navegación entre el dispositivo móvil del usuario y el punto de comunicación.

Otra opción es navegar en sitios que manejan el protocolo o capa de seguridad de transferencia de hipertextos, mejor conocido como HTTPS. Esto lo puedes verificar si cuando tecleas la dirección del sitio o servicio web al que planeas ingresar este comienza con https://.

2. Ese que me engaña

Los ataques de WiFi Spoofing pueden ser más comunes y se pueden ejecutar con programas gratuitos o de bajo costo disponibles en Internet. El atacante busca hacerse pasar por alguna de las múltiples redes públicas a las que tu smartphone se haya conectado anteriormente, ejemplo “Infinitum Movil” o “Starbucks”.

¿Cómo sucede?

Al tener la antena WiFi activada, no es necesario que el atacante obtenga permiso para conectarse a tu smartphone, pues el equipo pensará que se trata de un red conocida. Una vez conectada a ese falso “Infinitum Móvil”, el atacante puede ver cuando el usuario acceda a sitios de comercio electrónico, banca en línea o redes sociales. 

¿Cómo defenderse?

Apaga la antena WiFi de tu equipo cuando no uses el teléfono o tableta. Si es necesario usar redes públicas, evita realizar transacciones sensibles como pagos o compras en línea.

Depurar las redes que tu equipo ha memorizado. Aunque es más tedioso, a veces es mejor realizar de nuevo el proceso de ingreso a la red pública esto podría limitar el alcance de los ataques de spoofing.

3. Evita lo gratis

Ante la necesidad de conexión de los usuarios, muchas veces los criminales no tienen que fingir ser alguien más para engañar al usuario. En muchas ocasiones basta con crear redes WiFi que digan “Internetgratis”, “Freeinternet” o que estén simplemente sin protección para robar información.

¿Cómo sucede?

Aunque muchos usuarios podrían creer que obtener acceso a internet gratis es algo bueno. A veces conectarse a ese tipo de redes puede salir muy caro, pues ignoramos por completo quién es la persona detrás de esa red y qué intenciones tiene al “regalar” el acceso web.

¿Cómo defenderse?

Si no conoces la red, simplemente no te conectes a ella. A veces es mejor esperar o pagar por acceso que comprometer información personal de cuentas de redes sociales o datos bancarios.

Tomado de: CNN Expansion

Nuevos polímeros usarán luz visible para conseguir WiFi 35 veces más rápida

Cargando...
LiFi - Imagen tomada de: www.eleconomista.es

Recibe el nombre de LiFi porque el “Wireless” se sustituye por “Light”, es decir, sigue siendo tecnología inalámbrica de transmisión de datos pero en lugar de emplear ondas de radio se utiliza la luz. En conjunción con el empleo de nuevos materiales se ha conseguido obtener un sistema de envío inalámbrico de información con una velocidad inédita. 

No cesan las nuevas tecnologías, técnicas y materiales que cada día aparecen con la capacidad de revolucionar por completo lo que hoy tenemos que, por otra parte, supone ya de por sí una revolución con respecto a lo que era cotidiano hace unos pocos años. Y si no que nos lo pregunten a quienes empezamos a acceder a Internet con módems de 14,4 Kb. 

La cuestión no es nueva y de hecho hace algún tiempo que ya funciona de manera más o menos experimental, pero ahora un grupo de la universidad de St. Andrews ha desarrollado una serie de polímeros capaces de potenciar de manera exponencial la capacidad de transmisión y la velocidad. 

La primera ventaja de emplear luz visible para transmisión de datos es que la información queda codificada en pulsos de nanosegundos, es decir, un umbral que el ojo humano es incapaz de percibir, aunque a cambio sí hay una gran desventaja: debe existir una línea recta de visión libre de obstáculos entre emisor y receptor, aunque esto paulatinamente se va solucionando mediante sistemas de reflexión del haz luminoso. 

Lo que han conseguido el grupo de investigación de St. Andrews es crear un sistema de LED construido con unos nuevos polímeros que, al mismo tiempo que permite el envío de información proporciona iluminación. La frecuencia de oscilación es tan alta que a ojos del ser humano no llega a percibirse lo que a menor frecuencia podría semejar una luz estroboscópica. Y eso que por el momento la máxima velocidad alcanzada es de 4 Gbps pero tienen previsto que a final del presente año pueden llegar a los 15 Gbps. 

Los LED normales emplean un recubrimiento de fósforo para matizar el color azulado de manera que proporcione un espectro luminoso más agradable al ojo humano, pero ese material ofrece una oscilación de microsegundos, lo que impediría obtener estas elevadas tasas de transmisión de datos que mediante el uso de los referidos polímeros alcanza cotas en la escala de los nanosegundos, mucho más adecuadas para la efectividad del LiFi. 

Se ha conseguido un polímero orgánico capaz de filtrar parte de la luz del nitrito de indio-galio del LED y reemitirla en color verde mientras que otro tipo de polímero puede absorber la energía derivada del primero y emitirla como luz roja-anaranjada, obteniendo como resultado final una luz blanca de alta calidad que ha podido alcanzar tasas de transmisión de información de 350 Mbps aunque por el momento únicamente a 5 cms de distancia. A pesar de ello ya se trata de una velocidad 35 veces superior que los LED equivalentes sin el empleo de estos revolucionarios polímeros que, además, utilizaban luces azul, verde y roja en lugar de blanca, por lo que no hubieran servido para este doble propósito de proporcionar adicionalmente iluminación. 

La importancia de esta última cuestión es esencial puesto que supondría un paso importantísimo para llevar el LiFi al gran mercado de consumo en forma de, por ejemplo, bombillas capaces de iluminar estancias al tiempo que ofrecen cobertura de datos. Para tener acceso a Internet en una habitación a oscuras bastaría con encender la luz, matando dos pájaros de un tiro.

Tomado de: TheInquirer

viernes, 13 de febrero de 2015

Facebook lanza ThreatExchange, una red social de expertos para frenar los ciberataques

Cargando...
Facebook. Imagen tomada de: Facebook.com

Facebook lanzó este miércoles ThreatExchange, una nueva plataforma que nace de la necesidad de combatir a los hackers y de frenar los ciberataques. Aunque de momento está en fase beta, son muchas las empresas que se han sumado ya a esta pequeña red social integrada únicamente por ciberexpertos, cuya función consiste en compartir e intercambiar información sobre ciberterroristas y ataques informáticos, de manera que esos conocimientos les permitan adelantarse a sus futuros movimientos y les faciliten la actuación.

De acuerdo con la revista Fortune, la compañía de Mark Zuckerberg ha unido fuerzas con Bitly, Dropbox, Twitter, Pinterest, Tumblr o Yahoo. Todo un ejército de gigantes tecnológicos que han decidido sumarse a esta plataforma con el fin de reforzar su seguridad. 

La filosofía que persigue ThreatExchange surgió hace exactamente un año, cuando Facebook, así como otras redes sociales, sufrieron un ataque de malware a gran escala. Esa experiencia abrió los ojos a los diferentes equipos que intentaban hacer frente a los ciberterroristas: "compartir información con otras personas fue necesario para combatir el problema porque cuando una compañía se fortalece también lo hacen las demás", explica Mark Hammel, uno de los ejecutivos de la empresa. 

Con la idea de intercambiar datos de una manera segura y rápida apareció esta plataforma. Según detalla Hammel, el principal objetivo "es que todas las compañías sean capaces de usar ThreatExchange para compartir información, aprender de las revelaciones de los demás y reforzar la seguridad". Para evitar filtraciones, sin embargo, Facebook ha detallado que los datos solo se compartirán con los colaboradores que escoja cada empresa. De modo que la información quede registrada en un entorno hermético, seguro y fiable.

Tomado de: 20minutos

Tendencias: ¿Qué puede esperarse en 2015 en los ámbitos de redes, centros de datos y la nube?

Cargando...
Alan Zeichick, Camdem Associates. Imagen tomada de: DiarioTI

Me emocionan las pantallas curvas de los televisores 8K, los sofisticados robots domésticos, tabletas de bajo precio, relojes inteligentes, innovadoras bandas de fitness colmadas de sensores, coches eléctricos autónomos, drones de alto vuelo provistos de cámaras. Quizás usted también. Estos son sólo algunos de los que aparatos “que hay que tener” en 2015, como quedó demostrado en la feria internacional CES, realizada en enero en Las Vegas, Estados Unidos. El sitio Mashable ha publicado una visión general de lo mejor de CES.

Sin embargo, si prefiere saber qué es mejor para las telecomunicaciones en 2015, olvidemos entonces los dispositivos vestibles y parafernalia conectada a Internet. ¡Mejor hablemos de redes!

De hecho, 2015 será cuando las empresas salgan de su encierro, si por encierro entendemos el perímetro tradicional del centro de datos; un edificio cerrado, con redes habilitadas mediante túneles para redes de área amplia. Veremos puntos de inflexión, con Redes Definidas por Software que llegan a su mayoría de edad, y con la seguridad redefinida como una aplicación distribuida, de rango primordial, habilitada por la Virtualización de las Funciones de Red sobre SDN. Veremos orquestación inteligente de servicios, uniendo redes y sistemas. Veremos interconexiones metropolitanas de alta velocidad, que se vuelven cada vez más populares y asequibles. También veremos angustia debido a las garantías cada vez más confusas de nivel de servicio. Y veremos la Internet de las Cosas (IoT) que dejará de ser una palabra de moda, propia de marketing (y de la sobrecarga de dispositivos que trajo CES 2015) para convertirse en una parte importante de WiFi y el ancho de banda 4G.

Veamos entonces los detalles y resaltemos algunos de los actores y comentaristas de estas tendencias.

SDN es el habilitador fundamental de la red sin fronteras.

Al llegar a su mayoría de edad, las Redes Definidas por Software (SDN) están creando una revolución en los sectores de carrier y redes empresariales. Al desacoplar el plano de control del plano de datos de la red, SDN define y redefine, para luego definir y redefinir la red, una y otra vez.

Casi cualquier arquitectura concebible, imaginada por un carrier o una empresa, puede ser implementada en minutos – no en meses. La inteligencia y la conectividad pueden ser distribuidas alrededor de un centro de datos, al interior de una red de telecomunicaciones, entre las redes de telecomunicaciones, y en todo el mundo. La creciente maduración de SDN, y su adopción más amplia por parte de los mayores actores del sector redes, hacen que esta tecnología sea omnipresente. Así, compañías de nicho como Extreme Networks, con su Plataforma SDN, están a la vanguardia de SDN, junto a los gigantes como Juniper y Cisco. Para ver un sólido conjunto de predicciones centradas específicamente en SDN, recomiendo el ensayo de Jim Duffy en NetworkWorld.

Gracias a NFV, la seguridad se convierte en una app decisiva para las redes basadas en SDN.

NFV permite a los programadores inteligentes convertir diversas funciones del aparato de red, como el balance de carga, almacenamiento en caché y el filtrado de contenido de las aplicaciones que se ejecutan en una red definida por software. La seguridad es, en mi opinión, una de las funciones más importantes que es posible implementar a través de NFV, porque ahora se puede integrar funciones de seguridad – y políticas de seguridad – en todos los dispositivos apropiados, basados ​​en SDN.

En el pasado, por ejemplo, puede no haber sido rentable poner un dispositivo de seguridad de red, con tecnología de última generación, junto a cada switch y router. Con NFV, la seguridad es prácticamente una obviedad. Una empresa a considerar en este espacio es Wedge Networks, que no sólo tiene una fuerte gama de productos, sino que también ha definido, junto con la empresa de servicios de pruebas Spirent Communications, una especificación llamada NFV-S, o Virtualización de Funciones de Red para la Seguridad. Otras empresas, como Palo Alto y F5, también están trabajando duramente para llevar la seguridad a NFV. ¿O debemos quizás decir llevar NFV a la seguridad? Es, en realidad, un poco de ambas cosas.

La Orquestación de Servicio de Ciclo de Vida (LSO) hará SDN y NFV accesible a todos los niveles.

La complejidad de una red puede ser increíble. Piense en los desafíos que implica definir nuevos servicios. Creación y aplicación, ya sea a través de los dispositivos de red tradicionales, dispositivos habilitados para SDN, o una red empresarial o carrier híbrida. También es necesario gestionar esos servicios, garantizar el cumplimiento de las garantías de nivel de servicio, facturarlas – y luego desmantelar esos servicios cuando ya no lo necesite.

LSO es la clave para la creación y gestión de servicios en un entorno complejo, especialmente cuando SDN y NFV son parte de la mezcla. Definir las capacidades de LSO y apoyar las APIs es fundamental para superar los desafíos que enfrentan los actuales Sistemas de Soporte a las Operaciones (OSS), reduciendo la brecha con las futuras redes mejoradas para SDN/NFV. LSO puede instrumentar la red en cada punto, no sólo para poner en práctica los servicios, sino también recoger datos en tiempo real para permitir la visualización y gestión en tiempo real. De hecho, usted puede pensar en LSO como que reúne lo mejor de las consolas tradicionales de la red y el análisis de Big Data. Una empresa que destaca en tal sentido es CENX, cuya Orquestación de Servicios Cortx puede hacerse cargo de la gestión del ciclo de vida de extremo a extremo de una red moderna, así como ayudar con las cuestiones de migración y de aplicación de SLA.

Una iniciativa visionaria clave en este ámbito es la Tercera Red del MEF, que combina la agilidad en la demanda y la ubicuidad de Internet con el rendimiento y las garantías de seguridad de Carrier Ethernet 2.0 (CE 2.0). Los servicios de la Tercera Red prometen ofrecer una experiencia dinámica, centrada en la nube, con niveles sin precedentes de control, por parte del usuario, de los recursos de la red, con conectividad orquestada entre puntos de servicios físicos y virtuales, y a través de múltiples proveedores. La iniciativa del MEF para la Tercera Red incluye la creación de especificaciones de interoperabilidad que los actores comerciales pueden utilizar para orquestar el intercambio y la combinación de recursos a través de, bueno, todo. El ámbito del MEF abarca a fabricantes de equipos de redes, empresas de software, empresas de telecomunicaciones, proveedores de centros de datos, proveedores de servicios cloud, e incluso fabricantes de computadoras. El MEF está trabajando en colaboración con el CEF y otras partes interesadas, agrupadas en torno a la iniciativa MEF Unite, para definir las capacidades esenciales de LSO y de gestión necesarias para alcanzar los objetivos clave establecidos por la Tercera Red.

Las redes metropolitanas de alta velocidad impulsarán la conectividad empresarial

Pensemos en grande. Una empresa puede instalar toda la fibra que quiera a través de su edificio o alrededor de su campus. ¿Qué pasa cuando se conecta directamente vía Ethernet a, por ejemplo, los centros de datos basados ​​en la nube? Con demasiada frecuencia, la conectividad es rápida, pero no lo suficientemente rápida como para derribar los muros de rendimiento entre un centro de datos de la empresa y un centro de la nube – o entre diferentes proveedores de la nube.

Interconexiones de alta velocidad, basada en la tecnología óptica, están en el corazón del moderno centro de datos de la nube, y también la conexión entre los centros de datos y sus clientes empresariales en función de resultados. Uno de los líderes en este aspecto de la red de metro de alta velocidad es de Infinera, que ha replanteado una posición con alto rendimiento, bajo consumo de energía, y la impresionante densidad de puertos. De un vistazo a, por ejemplo, una nueva familia de productos llamada Nube Xpress, que está diseñado para la nube de metro, la red de transportes virtual que interconecta múltiples centros de datos dentro de un área metropolitana.

Todos enloquecerán con las Garantías de Nivel de Servicio

Casi todas las empresas están confiando en uno u otro servicio en la nube. Es Cualquier-cosa-como-un-Servicio, ya sea se trate de infraestructura, seguridad, analítica, virtualización, almacenamiento, etcétera, etcétera. En el próximo año continuaremos viendo una proliferación de Todo-como-un-Servicio, con límites que se desdibujan. Mientras que organizaciones como CloudEthernet Forum se dedican a la estandarización de las definiciones de servicios en la nube, la realidad es que los CIOs de empresas y comercializadores de proveedores de servicios tendrán dificultades para hablar el mismo idioma.

Hay una fuerte presión hacia una reducción en los precios, a la vez que hay una marcada tendencia al alza en la utilización de servicios y la complejidad. ¿Qué significa todo eso? Locas garantías de nivel de servicio que serán difíciles de entender, difíciles de medir y difíciles de cumplir, especialmente cuando muchos de esas SLA abarcan múltiples proveedores de servicios. Nubes independientes. API interdependientes. Dificultar para predecir el rendimiento y la disponibilidad. Como parte de su iniciativa Europa 2020, la Comisión Europea está estudiando las pautas de normalización de los Acuerdos de Nivel de Servicio de la nube. En realidad, ya era hora y, con suerte, los estándares globales tomarán forma durante el presente año.

Internet de las Cosas empezará a consumir considerable ancho de banda y otros recursos de back-end

La mayor parte de los actuales dispositivos IoT – bandas de fitness y relojes inteligentes, termostatos y televisores inteligentes – son sólo el comienzo. Muchos dispositivos portátiles se comunican con teléfonos inteligente vía Bluetooth; las apps del teléfono hablan con la nube, pero no hay muchos paquetes. Lo mismo ocurre con otros dispositivos de IoT ubicados en el hogar o en la oficina, que hablan con el router a través de WiFi o (raramente) mediante un cable físico. ¿Los recuerda?

Hoy en día, IoT es apenas mensurable. Eso va a cambiar – y a desarrollarse. Los dispositivos equipados con funcionalidad SatNav/GPS transmiten información de ubicación con frecuencia; y aunque son pequeños mensajes, pero hay un montón de ellos. Los dispositivos equipados con cámaras harán fluir los datos hacia la nube; en enormes volúmenes – imagínese Netflix a la inversa, y sin el beneficio de almacenamiento en caché. Un número cada vez mayor de dispositivos móviles tendrá sus propias conexiones de datos celulares. Un estudio publicado a finales de 2013 por el Instituto Politécnico de la Universidad de Nueva York pronosticó un salto exponencial en el consumo de ancho de banda de la IoT de aquí a 2020. La publicación Campus Technology cita un pronóstico de Gartner, según el cual el número de dispositivos IoT habrá aumentado a 26 mil millones de unidades en 2020, contra 0,9 millones en 2009. Para citar del artículo, “¿Cómo Manejarán las Redes de Campus una Internet de las Cosas con 26 mil millones de dispositivos?

“Los despliegues de IoT generarán grandes volúmenes de datos que necesitan ser procesados ​​y analizados en tiempo real“, señaló Fabrizio Biscotti, director de investigación de Gartner. “El procesamiento de grandes cantidades de datos de la IoT en tiempo real aumentará como una proporción de las cargas de trabajo en los centros de datos, enfrentando a los proveedores a nuevos retos de seguridad y capacidad de análisis”

Son cosas que quizás muchos gerentes de TI y proveedores de servicios en la nube no hayan considerado aún. Equipe la SDN, encienda la fibra y preste atención a lo que ocurrido en CES … porque todos esos paquetes distribuidos masivamente están a punto de golpear a nuestras redes.

Por Alan Zeichick, Camdem Associates

Tomado de: DiarioTI