Expertos en seguridad de internet quieren renovar la protección en la red tras las revelaciones de que la Agencia de Seguridad Nacional (NSA) estadounidense ha desarrollado la capacidad de burlar la codificación que resguarda millones de páginas.

Pero reconocieron que la tarea no es fácil, en parte porque la seguridad en internet ha recaído en gran medida en brillantes científicos del Gobierno que ahora parecen sospechosos para muchos. Los tecnólogos se sienten traicionados por el hecho de que la NSA, que ha contribuido a desarrollar algunos importantes estándares de seguridad, esté intentando asegurarse de que sean lo suficientemente débiles como para que la agencia los pueda vulnerar.

Tenemos la suposición de que podrían usar su capacidad para hacer unos bajos estándares, pero eso dejaría sin seguridad a todo el mundo en Estados Unidos, dijo, Matthew Green, profesor de criptografía de la Universidad Johns Hopkins.

Pensábamos que nunca estarían tan locos como para disparar contra el suelo que nos mantiene en pie, y ahora no estamos tan seguros, dijo.

EL HTTPS El jefe del grupo de voluntarios a cargo de las normas tecnológicas fundamentales de internet dijo a Reuters que el panel intensificará su trabajo para que la codificación se añada al tráfico normal de la red y para fortalecer el denominado estrato seguro que protege a bancos, el correo electrónico y a otras páginas que comienzan con Https.

Este es uno de los peligros a los que nos enfrentamos en la era en red, dijo Jari Arkko, un científico de Ericsson que preside el Equipo de Trabajo de Ingeniería en internet. Tenemos que responder a las nuevas amenazas, dijo.

Otros expertos coincidieron al responder sobre las informaciones de prensa basadas en los documentos del ex analista de la NSA Edward Snowden que mostraban que la NSA había manipulado esos estándares.

REESCRIBIR DESDE CERO Los documentos que obtuvieron The Guardian, The New York Times y otros medios muestran que la agencia trabajó para introducir vulnerabilidades en las herramientas de codificación comercial, influyó de forma encubierta en otros diseños para que permitieran accesos en el futuro y debilitó los estándares de todo el sector para beneficio de la agencia.

Junto con otras técnicas, esos esfuerzos llevaron a la NSA a decir internamente que tenía la capacidad de acceder a muchas formas de tráfico de internet que se habían considerado seguras, entre ellas al menos algunas redes privadas virtuales, que crean redes seguras en internet, y el nivel general de seguridad para sitios web empleados por la banca o el comercio online.

La oficina del director de Inteligencia Nacional dijo el viernes que la NSA no estaría haciendo su trabajo si no tratara de contrarrestar el uso del codificado por parte de adversarios como terroristas, ciberdelincuentes, traficantes de personas y otros.

Green y otros dijeron que una gran cantidad de protocolos de seguridad se necesitaban escribir desde cero sin la ayuda del Gobierno.

GOOGLE TOMA MEDIDAS Vint Cerf, autor de algunos de los principales protocolos de internet, dijo que no sabía si la NSA había causado mucho daño, subrayando la incertidumbre sobre las nuevas informaciones en torno al uso que la NSA ha dado a sus capacidades.

Existía una tensión entre la misión de vigilar y la de proteger las comunicaciones, y esa tensión se resolvió hace algún tiempo a favor de la protección al menos para las comunicaciones estadounidenses, dijo Cerf.

El empleador de Cerf, Google, confirmó que está codificando los datos entre sus centros, un proceso que se aceleró tras salir a la luz los documentos de Snowden en junio.

El autor Bruce Schneier, una de las figuras más admiradas en la criptografía moderna, escribió en una columna en The Guardian que la NSA ha minado un contrato social fundamental, y que los ingenieros del mundo tenían la obligación moral de recuperar internet.