Matando a la computadora para salvarla

23 de Diciembre de 2012
John Markoff - The New York Times

Imagine un ataque cibernético a todas las computadoras y dispositivos electrónicos de todo el mundo. Un científico está alertando sobre la amenaza.

Muchas personas citan el aforismo de Albert Einstein de que “todo debería ser hecho lo más sencillo posible, pero no más sencillo”. Sin embargo, solo un puñado de ellas han tenido la oportunidad de discutir el concepto con el físico durante el desayuno.

Uno de ellos es Peter G. Neumann, ahora un científico computacional de 80 años de edad en SRI International, un laboratorio de investigación de ingeniería precursora. Siendo estudiante de matemáticas aplicadas en Harvard, Neumann tuvo un desayuno de dos horas con Einstein el 8 de noviembre de 1952. Lo que le dejó al joven estudiante de matemáticas fue una filosofía del diseño profundamente arraigada que lo ha acompañado durante seis décadas.

Datos

80% de personas 
en el mundoestá corriendoel mismo
sistema operativo
 

Durante muchos de esos años, Neumann ha seguido siendo una voz en el desierto, señalando incansablemente que la industria de la computación tiene inclinación por repetir los errores del pasado. Ha sido uno de los principales especialistas de la nación en seguridad computacional, y desde el inicio predijo que las fallas que han acompañado a la explosión desordenada de las industrias de la computación y el internet tendrían consecuencias desastrosas.

“Su mayor contribución es insistir en la naturaleza de ‘sistemas’ de los problemas de seguridad y confiabilidad”, dijo Steven M. Bellovin, director de Tecnología de la Comisión Federal de Comercio de EE.UU. (FTC, por sus siglas en inglés). “Es decir, los problemas ocurren no debido a una falla, sino a la forma en que interactúan muchas piezas diferentes”.

Bellovin dijo que fue Neumann quien originalmente le hizo comprender que “los sistemas complejos se dividen en formas complejas”, o sea que la creciente complejidad del hardware y software modernos ha hecho virtualmente imposible identificar las fallas y vulnerabilidades en los sistemas computacionales y garantizar de que sean seguros y dignos de confianza.

La consecuencia ocurre en la forma de una epidemia de malware computacional y crecientes inquietudes sobre la guerra cibernética como una amenaza para la seguridad mundial, expresadas de manera alarmante en octubre por el secretario de Defensa de EE.UU., Leon E. Panetta, quien advirtió de un posible ataque “ciber-Pearl Harbor” contra EE.UU.

Neumann encabeza un equipo de investigadores en un esfuerzo por reconsiderar por completo cómo hacer computadoras y redes seguras, en un proyecto de cinco años financiado por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA, por sus siglas en inglés) del Pentágono, con Robert N. Watson, investigador de seguridad computacional en el Laboratorio de Computación de la Universidad de Cambridge.

Tengo la impresión de que la mayoría de los tipos que son responsables no quieren escuchar sobre la complejidad. Están interesados en las soluciones rápidas y sucias”.
Peter G. Neumann, científico

“He estado enfrentando a los mismos molinos de viento durante básicamente 40 años. Y tengo la impresión de que la mayoría de los tipos que son responsables no quieren escuchar sobre la complejidad. Están interesados en las soluciones rápidas y sucias”, dijo Neumann.

A favor de la seguridad

Neumann, que dejó los Laboratorios Bell y se mudó a California como padre soltero con tres hijos pequeños en 1970, ha ocupado la misma oficina en el SRI durante cuatro décadas.

Él razona que la única solución funcional y completa a la crisis de la seguridad computacional es estudiar la investigación del último medio siglo, seleccionar las mejores ideas y construir algo nuevo desde el principio.

Hoy la colaboración entre el SRI y Cambridge es una de varias docenas de proyectos de investigación financiados por la Oficina de Innovación de la Información de la Darpa como parte de un esfuerzo de “resiliencia cibernética” iniciado en el 2010.

Dirigido por el doctor Howard Shrobe, científico computacional del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés), que ahora es gerente de programas de la Darpa, el esfuerzo comenzó con una premisa: si la industria de la computación tuviera otra oportunidad, ¿qué debería hacer de manera diferente?

El programa incluye dos esfuerzos separados, pero relacionados: Crash, por las siglas en inglés de Diseño desde Cero de Albergues Seguros Adaptativos Resilientes; y MRC, por las siglas en inglés de Nubes Resilientes Orientadas a Misiones. La idea es reconsiderar la computación por completo.

Crash está financiando investigación para explorar cómo diseñar sistemas computacionales que sean menos vulnerables a los intrusos computacionales y recuperarse más rápidamente una vez que la seguridad es violada.

Shrobe argumenta que como la industria está ahora en una transición fundamental de los sistemas de escritorio a los móviles, es un buen momento para reconsiderar por completo la computación. Pero entre los mayores desafíos está la monocultura del “ecosistema” computacional de computadora de escritorio, servidores y redes, dijo. “La naturaleza aborrece las monoculturas, y eso es exactamente lo que hay en el mundo de la computación hoy en día. 80% está corriendo el mismo sistema operativo”, dijo Shrobe.

Lecciones de la biología

Para combatir la uniformidad en el software, los diseñadores están siguiendo ahora una variedad de enfoques que hacen de los recursos del sistema computacional blancos en movimiento. Ya algunos sistemas operativos computacionales revuelven las direcciones internas de manera muy similar a cómo un mago podría realizar el truco de ocultar un guisante en una concha.

El proyecto Crash está llevando la idea más lejos, creando esencialmente software que constantemente cambien las formas para eludir a potenciales atacantes.

Que internet permita a casi cualquier computadora en el mundo conectarse directamente con cualquier otra hace posible que un atacante que identifica una sola vulnerabilidad casi instantáneamente ponga en peligro a un enorme número de sistemas.

Pero basándose en otra ciencia, Neumann señala que los sistemas biológicos tienen sistemas inmunológicos múltiples, o sea que no solo hay barreras iniciales, sino que un segundo sistema consistente en centinelas como las células T tiene la capacidad de detectar y eliminar a los intrusos y luego recordarlos para ofrecer protección en el futuro.

En comparación, los sistemas computacional y de red de hoy fueron diseñados en gran medida con la seguridad como ocurrencia tardía, si acaso.

Un enfoque de diseño que el equipo de investigación de Neumann está siguiendo se conoce como arquitectura de etiquetas. De hecho, cada pieza de datos en el sistema experimental debe llevar “credenciales”, un código encriptado que asegura que es uno en el cual confía el sistema. Si los datos o documentos del programa no están en orden, la computadora no los procesará.

Un enfoque relacionado es llamado arquitectura de capacidades, que requiere que todos los objetos de software en el sistema conlleven información especial que describa sus derechos de acceso en la computadora, los cuales son verificados por una parte especial del procesador.

Para Neumann, una de las partes más frustrantes del proceso es ver qué problemas que fueron resueltos técnicamente hace cuatro décadas siguen plagando al mundo de la computación.

Un ejemplo clásico es la vulnerabilidad de “desbordamiento de la memoria intermedia”, un defecto de diseño que permite a un atacante enviar un archivo con una larga serie de caracteres que infestará un área de la memoria de una computadora, causando que el programa falle y haga posible que el intruso ejecute un programa malicioso.

Hace casi 25 años, Robert Tappan Morris, entonces estudiante de posgrado en la Universidad de Cornell, usó la técnica para hacer que su programa gusano se propagara por un internet que estaba compuesto entonces por apenas unas 50.000 computadoras.

Neumann había asistido a Harvard con Robert Morris, el padre de Robert Tappan Morris, y luego trabajó con él en los Laboratorios Bell en los 60 y 70, donde Morris padre fue uno de los inventores del sistema operativo Unix. Neumann, amigo cercano de la familia, estuvo dispuesto a testificar en el juicio del joven programador, que llevó a cabo su intento de hackeo sin verdadera intención maliciosa. Fue sentenciado y multado, y ahora es profesor del MIT.

La experiencia dejó a Neumann simultáneamente pesimista y optimista sobre el futuro de la industria. “Fundamentalmente, soy un optimista con respecto a lo que podemos hacer con la investigación. Fundamentalmente, soy un pesimista con respecto a lo que las corporaciones que están fundamentalmente obligadas con sus acciones hacen, porque siempre están trabajando con aspectos a corto plazo”, dijo.

  Deja tu comentario