jueves, 24 de marzo de 2011

El 54% de los móviles de segunda mano contiene datos personales

RecuperaData, líder en servicios de recuperación de datos, recomienda el uso de servicios homologados y profesionales de borrado seguro para eliminar los datos antes de deshacerse de los dispositivos informáticos o donarlos, para prevenir las fugas de información.


Más de la mitad –en concreto, un 54%- de los teléfonos móviles de segunda mano contienen datos personales pertenecientes a su propietario original. Al menos esta es la situación en Reino Unido, según un estudio realizado por CPP.

Para llevar a cabo su estudio, la firma compró 35 teléfonos móviles y 50 tarjetas SIM en el sitio de subastas online eBay. Del análisis de estos recursos CPP concluyó que en 19 teléfonos móviles y 27 tarjetas SIM se conservaban un total de 247 piezas de datos, incluidas fotos, textos, correos electrónicos e incluso detalles de banca online.

Es más, la mitad de los británicos que compraron un teléfono móvil de segunda mano aseguró haber encontrado datos pertenecientes al anterior propietario del dispositivo.

Conviene tener presente que “muchas de las preocupaciones sobre la seguridad de su información que la gente tiene cuando piensa en sus ordenadores personales son también aplicables al mundo móvil”.

“A medida que los dispositivos móviles se hacen más sofisticados, se prestan cada vez más a los mismos tipos de acceso a correo electrónico, contraseñas y otra información sensible que los PC en el pasado”, y, por tanto, se exponen a los mismos riesgos de seguridad”.

Los resultados del estudio son una “alarmante llamada de atención” para los usuarios móviles. “Los consumidores actualizan sus móviles más que nunca antes y se hace imprescindible que asuman una responsabilidad personal para gestionar adecuadamente sus propios datos”.


En RecuperaData ofrecen el correcto  borrado seguro de toda la información de sus dispositivos, vayan a ser reciclados o reutilizados. Su servicio de Borrado Seguro de Datos certifica que los datos contenidos en los dispositivos quedan eliminados de una manera totalmente segura e irreversible.

lunes, 22 de noviembre de 2010

Borrado seguro de datos

RecuperaData, líder en servicios y software de recuperación de datos, recomienda el uso de programas o servicios homologados para eliminar los datos antes de deshacerse de los discos duros o donarlos, para prevenir quebrantamientos en la gestión de los datos.

Según un estudio reciente sobre las prácticas de borrado seguro de datos, se ha descubierto que menos de la mitad de las empresas despliegan con regularidad un método para borrar datos sensibles de ordenadores y discos duros viejos.

De ese 49% de las empresas que despliegan sistemáticamente un método para eliminar los datos, el 75% no borran los datos con seguridad, con lo que las organizaciones quedan susceptibles frente al robo o ante incumplimientos legales en la gestión de sus datos, cuestión que afecta a las empresas al menos una vez al año según la encuesta de 2010.

Tres cuartas partes de las empresas borran archivos, vuelven a formatear el disco, tiran los discos duros sin ningún control o no saben que están borrando datos importantes. Borrar los datos de un disco duro sólo significa que los archivos se marcan como desechables, pero sin borrarlos realmente, cosa que igual no se produce nunca. Además, reformatear el disco sólo elimina las anotaciones correspondientes de los archivos en el índice o tabla de contenidos, anotaciones que apuntan a los datos. Y, destruir físicamente la unidad no es un método de protección garantizado.

La encuesta realizada a más de 1500 participantes de 12 países, de Norteamérica, Europa y Asia Pacífico, sobre las prácticas de eliminación de datos reveló también que cuatro de cada diez empresas donan los discos duros a otra persona y que el 22% no sabía qué había pasado con su ordenador viejo. En total, en el mercado de segunda mano se puede comprobar que más del 60% de los ordenadores viejos de las empresas están llenos de información propia y especifica de las mismas.

Sólo el 19% de las empresas despliegan software de borrado seguro de datos y todavía menos, el 6%, son las que utilizan un desmagnetizador para borrar el soporte. Cuando se les consultó a las empresas cómo y cuándo verifican que se han borrado los datos, resultó que sólo el 16% utiliza un producto o servicio para certificar que han quedado eliminados todos los datos. Aparte de las empresas que “no saben” (34%) cómo asegurarse de que los datos se han borrado de un dispositivo antiguo, la respuesta más común, que manifestaron el 22% de las empresas, fue “reiniciar el disco duro” para ver si todavía quedaban datos en él.

En RecuperaData ofrecen el correcto  borrado seguro de toda la información de sus discos duros, vayan éstos a ser reciclados o reutilizados. Una vez sometidos a los procesos de traramiento de discos duros, el 100% de la información que contenían habrá sido borrada y será totalmente irrecuperable.

miércoles, 27 de octubre de 2010

Mitos sobre los discos duros

Mito 1: Formatear un disco duro muchas veces puede dañarlo

En pocas palabras: formatear el disco duro NO reduce su vida útil. Sí, mucha gente asegura que formatear el disco duro reduce su expectativa de vida, pero es un mito.La operación de formateo NO supone un esfuerzo especial para el disco duro. Las cabezas de lectura/escritura NO tocan la superficie magnética, por lo que los platos sólo se pueden dañar si la unidad sufre una fuerte vibración o sacudida durante la operación. Se puede formatear el disco duro 20 veces diarias, todos los días, y la probabilidad de que falle seguirá siendo la misma que la de cualquier otra unidad.

Este mito puede que venga de los disquetes flexibles, en donde la cabeza sí toca la superficie magnética y, por tanto, las operaciones de lectura, escritura y formateo degradaban paulatinamente el medio.

Mito 2: Formatear un disco duro hace que se deposite una capa de algo sobre la superficie del plato, lo que, a la larga, hace aparecer sectores defectuosos

El formateo no deposita ninguna capa de nada en el plato. El disco duro es un entorno sellado, por lo que en su interior prácticamente no hay polvo. Y aunque lo hubiese ¿por qué debería la operación de formateo depositarlo sobre el plato?

Mito 3: Formatear el disco duro sobrecarga el brazo móvil que porta los cabezales

El formateo es una operación que se realiza en sectores contiguos. Esto significa que el formateado se realiza secuencialmente: sector 500, sector 501, sector 502… En esta operación el movimiento del brazo es minúsculo, frente a otras operaciones, como un acceso aleatorio a un archivo, que mueve las cabezas de una parte a otra del plato. Por tanto, el formateo no sobrecarga el brazo.

Mito 4: Desfragmentar el disco duro sobrecarga el brazo móvil

En realidad hace justo lo contrario. Aunque la operación en sí supone un gran movimiento de la cabeza, al tener que mover los datos de un lado a otro del disco duro, el resultado es que estos datos quedan organizados de forma secuencial en el disco. Esto permite que sucesivas operaciones de lectura/escritura se puedan realizar sin tener que moverse prácticamente sobre los platos, lo que reduce el movimiento del brazo e incrementa notablemente el rendimiento del disco duro. Por tanto, aunque la operación en si sí puede sobrecargar el brazo de los cabezales, esto se ve sobradamente compensado por el esfuerzo que se ahorra en las sucesivas lecturas y escrituras.

Mito 5: Si un disco duro tiene sectores defectuosos, formatearlo hará que aparezcan más

Si un disco duro tiene sectores defectuosos por culpa de una serie de aterrizajes de los cabezales (cuando, por un golpe o vibración, los cabezales llegan a tocar la superficie), su número aumentará indefectiblemente con el tiempo, se formatee o no se formatee. La razón para que el número de sectores defectuosos aumente al formatear es que dicha operación es la que descubre los sectores defectuosos. No olvidemos que, al formatear un disco, el sistema operativo comprueba cada sector para detectar los que están en mal estado.Por tanto, el formatear un disco no aumentará el número de sectores defectuosos, tan sólo revelará lo que, de hecho, está ocurriendo.

Mito 6: Descargar mucho “material” desde Internet reduce la vida del disco duro

Descargar “material” al disco duro constantemente no reduce su vida útil. El disco está girando constantemente, tanto si está leyendo o escribiendo como si permanece inactivo. Y mientras esté girando se morirá al mismo ritmo, tanto si está inactivo como leyendo o escribiendo datos.

Mito 7: Algunos sectores defectuosos son “virtuales”, y se pueden reparar formateando el disco duro

No existen “sectores defectuosos virtuales” y “sectores defectuosos físicos”. Un sector defectuoso es un sector que no se puede leer o escribir, el cual no puede ser reparado por ningún software, ni formatear el disco lo restaurará.Ver también el siguiente mito.

Mito 8: No hay por qué preocuparse por los sectores defectuosos, pues se pueden “borrar” formateando el disco duro

Es cierto que el formateo a bajo nivel puede sustituir sectores defectuosos por otros sanos situados en las pistas “extra” que forman parte todo disco duro. Por desgracia, el rendimiento disminuye porque las cabezas han de buscar dicho sector en otra pista. Además, el número de sectores contenidos en dichas pistas “extra” son limitados.Por otro lado, los sectores defectuosos son un síntoma de que algo va mal en el disco duro. Aunque fuese debido a un único aterrizaje de cabezas, tan traumático evento puede haber creado residuos (por el desgaste sufrido en ese instante) en el compartimento de los platos y dañar la cabeza. Los residuos pueden provocar gradualmente rayazos y erosión en otras partes del plato, mientras que una cabeza dañada no será estable aerodinámicamente, por lo que será más probable que se produzcan futuros aterrizajes.En otras palabras: si un disco duro contiene datos críticos, una medida inteligente consiste en sacar una copia de seguridad de éstos y sustituir el disco al primer síntoma de sectores defectuosos. La unidad puede que siga trabajando bien durante mucho tiempo sin que aparezcan nuevos sectores en mal estado, pero el riesgo de una muerte será real y no debería ser ignorado. Si se produce un daño irreparable en el disco duro la recuperación de datos tendría que hacerse por parte de una empresa especializada en esta labor”

Mito 9: Se debe formatear el disco duro cada cierto tiempo para mejorar el rendimiento

Esta es otra falacia. El formatear el disco duro regularmente NO mejora el rendimiento.
Cuando se aprecia una degradación en el rendimiento del disco duro tras varios meses de uso, ésto se debe a que los datos se han fragmentado tanto que las cabezas de lectura/escritura tienen que saltar de un lado a otro del disco duro para poder leer o escribir los datos. La solución consiste en desfragmentar el disco duro, en vez de formatearlo.

Mito 10: Los discos duros sólo se pueden instalar en posición horizontal

Los discos duros se pueden instalar en cualquier posición: horizontal, vertical, incluso boca abajo. Lo que no se debe hacer es girarlos mientras estén en funcionamiento, pues se puede producir un aterrizaje de cabezas.

Mito 11: Para poder usar un disco duro en posición vertical, es preciso formatearlo en posición vertical

Los discos duros pueden trabajar en cualquier posición. NO es necesario reformatearlos al cambiar la orientación.

miércoles, 22 de septiembre de 2010

Algunos ejemplos de intrusiones o explotación de vulnerabilidades habituales en Internet:

Es importante hacer hincapié en que las empresas incorporen servicios de seguridad informática, ya que pueden sufrir intrusiones como las siguientes:
  • Servidor de correo: si su servidor de correo está (incorrectamente) configurado para permitir el reenvío de correos de terceros sin autorización, será cuestión de minutos que algún spammer lo utilice para que desde su servidor se envíen correos no deseados a medio mundo. Quizá no lo considere un ataque, pero cuando se vea incluido en listas negras de servidores de correo y los servidores de sus clientes y proveedores le devuelvan los correos, verá que la cosa no tiene demasiada gracia. Sin mencionar la posibilidad de que su servidor de correo sea saturado o le provoquen un DoS.
  • Uso del ancho de banda: aunque puede no considerarlo un ataque en el sentido más estricto del término (usted no es el atacado), pueden utilizar sus servidores para provocar una denegación de servicio a un tercero, lo que evidentemente influirá en su conectividad y por ejemplo, en la disponibilidad de los servicios que ofrece a través de esa línea de Internet.
  • Uso de sus visitas lícitas y reputación para redirigir a sus clientes a páginas maliciosas con virus y troyanos: existen virus y gusanos cuyo ataque se basa en ese propósito. Asimismo, un problema de Cross Site Scripting de poca relevancia técnica para sus sistemas, puede tener como objetivo incrustar una página web remota con virus y troyanos en su frontal web, con lo que todos los visitantes no suficientemente protegidos serán infectados con el malware. Imagine las consecuencias en su reputación.
  • Uso de un servidor para albergar una pagina de phising: de modo que un servidor de su organización albergue una copia de la página del banco XYZ.
  • Uso de la CPU de los ordenadores y servidores locales para romper contraseñas por fuerza bruta.
  • Uso de los servidores para colocar Bots de IRC: con el objetivo de poder llevar a cabo comunicaciones de manera anónima y secreta. Es habitual encontrarse este tipo de artefactos y en mi vida profesional el mayor numero de intrusiones ha sido con este cometido.
  • Uso de los servidores para albergar contenidos ilegales: con los posibles problemas que pueden implicar: desde programas pirata, películas o música, hasta cosas mucho peores...
  • Uso de su servidor como anonimizador de otros ataques: con lo que los atacantes evitan que se localice su IP origen. Esto le puede meter en un lío legal de cuidado. Además de ello es habitual que una vez atacado el site remoto que era el objetivo final, para evitar dejar rastros formateen completamente el servidor intermedio. 
  • Robo de publicidad: si su organización dispone de banners publicitarios, un ataque reciente se dedica a cambiar la cuenta de publicidad “oficial” por la del atacante para conseguir llevarse los ingresos.
  • Conseguir enlaces o referencias a otro site (esto es otra especie de spam: webspam) para posicionarse bien en los buscadores (SEO). Este tipo de enlaces hay incluso quien los vende.
  • Uso combinado de un sniffer para obtener cuentas de usuarios de su organización: cuentas ftp, cuentas de shell y cuentas de correo electrónico capturadas y utilizadas por numerosos robots y malware, sin ser en absoluto ataques dirigidos contra su organización, pero de los que es víctima.

martes, 21 de septiembre de 2010

20 puntos de control críticos para proteger la empresa

  1. Inventario de dispositivos autorizados y no autorizados: conocer e inventariar los dispositivos que forman parte o deben pertenecer a nuestra red y bloquear el acceso al resto.
  2. Inventario de software autorizado y no autorizado: al igual que con los dispositivos, realizar la misma tarea con el software corporativo. Esto facilitará futuras tareas ya sean de mantenimiento, actualización, etc. Asimismo, utilizar herramientas que hagan un seguimiento del software instalado, consolas de gestión y centralización…
  3. Configuraciones seguras de hardware y software para portátiles, equipos y servidores: bastionado de los equipos que utilizan los usuarios, antes de su inclusión en la red así como durante su actividad. Aunque parezca simple la acción de enchufar un cable de red a un portátil, os recuerdo que hace unos años existía un bicho que en 10 segundos nos dejaba los equipos inutilizados nada más configurar la conexión a Internet, reiniciándonos el sistema una y otra vez.
  4. Configuraciones seguras para dispositivos de red (Firewalls, Routers y Switches): en la mayoría de los casos son dispositivos que no sufren grandes cambios en sus configuraciones, por lo que no está de más revisarlos, ya que en muchas ocasiones todo el peso de la seguridad se delega en ellos.
  5. Defensa perimetral: establecer una buena seguridad “perimetral” mediante proxys, redes DMZ, sistemas de prevención de intrusiones (IPS – Intrusion Prevention System), firewalls… Para ataques que provengan del exterior, esta es la primera puerta que se encontrarán nuestros amigos los “malos”, por lo que conviene tenerla con unas cuantas cerraduras.
  6. Mantenimiento, monitorización y análisis de registros de auditoría: aunque en muchos casos se opte por desactivar los registros de eventos en los dispositivos por cuestiones de rendimiento y evitar tener trabajo de revisión de logs todas las mañanas a primera hora, conviene revisar las configuraciones para registrar los eventos adecuados, ya que en un futuro lo agradeceremos cuando se nos pidan explicaciones frente a cualquier tipo de incidentes.
  7. Seguridad en aplicaciones software: todos los desarrollos, ya sean propios de nuestra compañía como desarrollos de terceros, deberían ser revisados antes de ponerlos a funcionar dentro de nuestra infraestructura. Ain con herramientas automáticas (que facilitarían a su vez revisiones periódicas) o de forma manual, nunca está de más conocer a fondo los posibles peligros o riesgos. No importa de dónde venga el software que tenemos que implantar, al fin y al cabo… los programan humanos.
  8. Uso controlado de privilegios de administración: con unos buenos mecanismos de control de acceso para dispositivos, ya sean de red, equipos de usuario o servidores, un usuario con privilegios máximos se autentificará en los sistemas en ocasiones contadas con los dedos de una mano. Por ello, se recomienda vigilar, monitorizar y rastrear accesos mediante usuarios que cuenten con privilegios máximos. Pongamos un ejemplo rápido: Si en una compañía, el único método de acceso a equipos de usuarios es mediante una cuenta del dominio, la cuenta de Administrador local se encuentra restringida, ¿no resultaría extraño que todas las mañanas, a las 9, se detectara un proceso de logon en un equipo por el usuario Administrador?
  9. Acceso controlado a recursos basado en su grado de confidencialidad: siempre es necesario realizar un ejercicio de análisis de la información a la que se pueda acceder, y por ello, es conveniente realizar segregaciones de datos en base a su nivel de confidencialidad. En ejemplos de recursos compartidos, por ejemplo, los privilegios deberían definirse según directorios y quién pueda acceder a ellos.
  10. Análisis continuo de vulnerabilidades y sus correspondientes mitigaciones: se deben realizar análisis periódicos de vulnerabilidades de nuestros activos, no únicamente cuando estos se vayan a conectar en nuestra red. En la actualidad, gran parte de las herramientas utilizadas para la auditoría de vulnerabilidades en sistemas suelen contar con gestión de procesos periódicos, capaces de generar informes detallados con la “foto” entre análisis y análisis. Quizás una revisión diaria sea absurda, pero en ciertas ocasiones, y según el tipo de dispositivos en objeto de revisión, un año resulte demasiado. Busquemos el término medio que no moleste y sea adecuado.
  11. Control y monitorización de cuentas: al hilo de la recomendación 8, también sería conveniente contar con registros un poco más detallados sobre los accesos. No sólo cuando y quién accede, si no posibles intentos fallidos continuos, si la autentificación fallida se debe al usuario o a la contraseña suministrada, etc.
  12. Defensa frente a malware: punto clave, de nada sirve protegernos de lo que nos pueda venir de fuera, si luego permitimos que nuestra red interna sea un parque de atracciones para los bichos que puedan venir en pendrives y demás. La protección y monitorización de estas amenazas también debe constituirse estableciéndose en diferentes puntos de nuestra red, apoyándonos no sólo en las soluciones típicas de antivirus, si no en sistemas de detección y prevención de intrusiones.
  13. Control y limitación de puertos de red, protocolos y servicios: cuántas veces habremos oído las típicas frases de “hombre, si desde fuera no pueden acceder, ¿para que voy a restringir puertos?”. Mal. Es muy habitual realizar revisiones internas de infraestructuras y encontrarse sistemas en los que dudas de si realmente son honeypots (mínimo 1000 puertos abiertos, desde el finger, echo, daytime….) o sistemas que ofrezcan un servicio legítimo. No está de más restringir siempre, a nivel del propio sistema, puertos y servicios que no sean necesarios para la función que desempeña.
  14. Control de dispositivos wireless: podemos contar con dispositivos y access points que ofrezcan los mecanismos de cifrado más potentes para nuestras redes inalámbricas, portales cautivos, con restricciones a nivel físico, etc. y luego de repente descubrir que a X departamento le ha dado por enchufar un router wifi típico para su conexión propia de ADSL. Y sí, también es posible mediante ellos acceder a la red interna. Es conveniente en ocasiones sacar a pasear cualquier Stumbler para comprobar, al igual que necesitábamos inventariar todos los dispositivos de red, si tenemos en cuenta todos y cada uno de los dispositivos que ofrezcan conectividad inalámbrica y que formen parte, en muchos casos sin conocimiento alguno, de nuestra infraestructura.
  15. Prevención de fugas de información: la fuga de información está suponiendo, cada vez más, una grave amenaza para multitud de empresas. Ya lejos de volcados de bases de datos por aplicaciones vulnerables online, o incluso de robo de portátiles que tanto estuvieron de moda, en la mayoría de los casos el problema viene desde dentro. Cuando se dan situaciones en los que los empleados tienen su emule instalado y compartiendo carpetas que no deben, cuando tienen acceso, por no prevenir lo comentado en el punto 9, a demasiada información, cuando por correo electrónico pasan ciertos documentos a otras compañías….para ello ya existen soluciones software denominadas DLP (Data Loss Prevention) que son capaces de definir, monitorizar y proteger aquella información sensible.
  16. Ingeniería de red segura: el buen diseño y arquitectura de una red es fundamental, definiendo una correcta y adecuada segmentación basada tanto en la organización como en la seguridad.
  17. Tests de intrusión y pruebas por parte de equipos “Red Team”: además de los típicos análisis de vulnerabilidades, es conveniente definir y simular una serie de patrones de posibles ataques sobre nuestra infraestructura contra los que nos podríamos enfrentar, y conocer si estamos preparados antes ellos, para su monitorización, respuesta y actuación. Estas pruebas suelen contratarse a personal externo de la organización, pudiendo así tener una perspectiva diferente y alejada de “nuestra realidad”.
  18. Capacidad de respuesta frente a incidentes: lejos de pruebas, en este punto se propone la elaboración de procedimientos para la respuesta frente a incidentes que puedan ocasionarse. Al igual que con los simulacros de incendios, también es conveniente revisar y poner en práctica estos procedimientos para definir si realmente son correctos y suficientes, provocando acciones como las comentadas en el anterior punto.
  19. Capacidad de recuperación de datos: qué decir de las copias de seguridad y su vital importancia... Debe contarse con un sistema robusto de copias de seguridad, sobre todo para aquellos datos de mayor importancia de la empresa, así como de un protocolo perfectamente definido sobre recuperación de datos en caso de desastre o pérdida de datos.
  20. Estudio de técnicas de seguridad y formación necesaria a los usuarios: Formación, formación y formación. Pero no sólo a nuestro personal más técnico, todos y cada uno (también sabiendo diferenciar perfiles y el tipo de formación a ofrecer) de nuestros empleados deberían contar con una formación básica en materia de seguridad. Quizá a algunos departamentos sólo debamos recordarles los consejos básicos sobre navegación segura por internet, elección de contraseñas robustas, identificación de posibles phishings en e-mails…y a otros cómo validar correctamente los parámetros de sus aplicaciones en desarrollo, como cifrar las conexiones, etc.

viernes, 17 de septiembre de 2010

Empresas españolas de más de 50 empleados pierden 3.000 millones de euros al año por no proteger sus sistemas

Las organizaciones españolas de más de 50 empleados pierden una media de 316.304 euros en ingresos anuales debido a interrupciones del servicio TI y al tiempo que tardan en recuperarlo.


Un estudio que revela que las organizaciones españolas de más de 50 empleados pierden una media de 316.304 euros en ingresos anuales debido a interrupciones del servicio TI y al tiempo que tardan en recuperarlo. Esta cifra asciende a cerca de 3.000 millones de euros para el conjunto de organizaciones españolas de más de 50 empleados de los sectores financiero, comercio, público e industria. Gran parte de este importante coste para el negocio y la economía puede evitarse con una mejor estrategia de protección de datos que se centre en la rapidez de recuperación de datos.

El informe ‘Avoidable Cost of Downtime 2010’, realizado por la firma de investigación independiente Coleman Parkes, pone de manifiesto que las pérdidas financieras asociadas a las interrupciones de servicio TI se disparan cuanto más tiempo tardan en resolverse.

Para este estudio se han analizado 1.808 organizaciones (incluyendo 200 españolas) con más de 50 empleados y de 11 países europeos. Los resultados indican que cada organización española registra anualmente una media de 10 horas de interrupción del servicio TI, lo que equivale a más de 90.000 horas en el conjunto de España. Durante el tiempo en el que los sistemas TI críticos para el negocio se ven interrumpidos, las organizaciones españolas estiman que su capacidad para generar ingresos queda reducida a poco más de un tercio (36%).

El funcionamiento correcto de las TI es crítico para las organizaciones y cualquier degradación del servicio no sólo impacta en la productividad de los empleados, sino que puede afectar también a los clientes. “El impacto financiero de las interrupciones de servicio TI se está convirtiendo en un problema importante a medida que las compañías dependen más de los servicios online para generar ingresos y ofrecer un canal básico de comunicación”. “Afortunadamente, gran parte de este coste es evitable. Las organizaciones pueden eliminarlo si reevalúan su estrategia de recuperación de datos ante desastres, lo cual podría tener un impacto directo en su posición financiera”.

El informe también revela que después de una interrupción del servicio, cuando los sistemas TI ya están en funcionamiento, se produce un retraso adicional durante el cual se van recuperando los datos, ocho horas al año de media en las compañías españolas analizadas. En el conjunto de España, esto significa casi 75.000 horas más en que la actividad de negocio no está totalmente operativa. Durante este periodo en que los datos se van recuperando, la generación de ingresos de las compañías sigue estando gravemente afectada, ya que desciende hasta el 45 por ciento de media.

“Muchas organizaciones sufren las interrupciones de sus sistemas TI por más tiempo del necesario porque sus políticas de protección de datos no son lo suficientemente robustas”. “A menudo las organizaciones centran sus esfuerzos en hacer las copias de seguridad, pero no tienen en cuenta el tiempo de recuperación de datos en caso de fallo. Considerar esta velocidad de recuperación es un buen punto de inicio para las organizaciones que planifiquen o reevalúen sus requisitos de recuperación ante desastres. Con una solución adecuada de copia de seguridad y recuperación de datos se puede restablecer este equilibrio y, en última instancia, ahorrar dinero y aumentar la competitividad”.

Otras conclusiones del informe a destacar son:

- El 50 por ciento de las organizaciones encuestadas afirma que los sistemas TI y las aplicaciones afectadas por las interrupciones del servicio TI eran críticas para su negocio.

- Los departamentos que más probabilidades tienen de verse afectados son los de Operaciones (62%), Ventas (52%) y Finanzas (52%).

viernes, 18 de junio de 2010

Toshiba anuncia su primera NAND Flash de 128 GB

El nuevo módulo de memoria NAND Flash de Toshiba duplica las anteriores ofertas de la compañía.

Con el anuncio de un módulo de memoria NAND Flash de 128 GB Toshiba afirma haberse convertido en el primer fabricante en conseguir esta capacidad, duplicando su oferta anterior.

El nuevo módulo de memoria combina e16 pequeños chips NAND de 64 GB en un paquete que no es mayor de 17 x 22 x 1,4 milímetros.

Estas son buenas noticias para algunos dispositivos de electrónica de consumo como smartphones, cámaras de vídeo digitales o tablets.

A través de un comunicado la compañía afirma que Toshiba es la primera en combinar con éxito 16 chips NAND de 64 Gb.

Los módulos tendrán una velocidad de lectura de 55Mbps y 21Mbps en lectura, más del doble que los NAND de 20 nanómetros de Samsung.

Se prevé que la producción en masa del nuevo módulo de memoria de 128 GB de Toshiba se inicie en el cuarto trimestre de este año.

¿Sabía usted que en RecuperaData somos líderes en los servicios de recuperación de memorias flash de todo tipo en España?

* RECUERDE: sólo un Laboratorio como RecuperaData puede llevar a cabo los delicados procesos de recuperación de datos con todas las garantías.