N.º 2845 – Mes de la IA: La isla


N.º 2845 – Mes de la IA: La isla

Si la portada de la revista Time es una indicación, la gente está preocupada por la amenaza existencial que representa la IA.

Incluso las personas que lo crean activamente. Los líderes de la industria llegaron a firmar una carta de advertencia sobre los riesgos.

Como CNET el plato:

“Líderes de la industria de IA como el CEO de OpenAI, Sam Altman, y el CEO de DeepMind, Demis Hassabis, junto con otros científicos y figuras notables, firmaron una declaración el martes advirtiendo sobre las amenazas potenciales de la IA avanzada para la humanidad.

La breve declaración de una oración se publicó en el sitio web de la organización sin fines de lucro. Centro de seguridad de IA. “La mitigación del riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos para toda la sociedad, como las pandemias y la guerra nuclear”, dijo el comunicado.

Por eso la idea de la isla es tan intrigante. Si la IA es realmente tan arriesgada, entonces deberíamos construir un espacio seguro para ella. Un lugar para construirlo, probarlo, experimentarlo, y solo una vez que se haya demostrado que es seguro, podrá comercializarse y lanzarse. Similar a cómo configuramos el acelerador de partículas en el CERN.

Ian Hogarth lo resume mejor en Twitter:

OpenAI explica con más detalle en su blog:

“En términos de ventajas y desventajas potenciales, la superinteligencia será más poderosa que otras tecnologías a las que la humanidad se ha enfrentado en el pasado. Podemos tener un futuro considerablemente más próspero, pero debemos gestionar el riesgo para llegar allí. Dada la posibilidad de riesgo existencial, no podemos simplemente ser reactivos.La energía nuclear es un ejemplo histórico de uso común de una tecnología con esta propiedad, la biología sintética es otro ejemplo.

También debemos mitigar los riesgos de la tecnología de inteligencia artificial actual, pero la superinteligencia requerirá un manejo y una coordinación especiales.

Muchas ideas nos importan para tener una buena oportunidad de navegar con éxito este desarrollo; aquí presentamos nuestro pensamiento inicial sobre tres de ellos.

Primero, necesitamos cierto grado de coordinación entre los principales esfuerzos de desarrollo para garantizar que el desarrollo de la superinteligencia ocurra de una manera que nos permita mantener la seguridad y ayudar en la integración perfecta de estos sistemas con la sociedad. Esto podría implementarse de muchas maneras; los principales gobiernos del mundo podrían establecer un proyecto del que formarían parte muchos de los esfuerzos actuales, o podríamos acordar colectivamente (con el apoyo de una nueva organización como la sugerida a continuación) que la tasa de crecimiento en la capacidad de RN en la frontera está limitada a una cierta tasa por año.

Y, por supuesto, las empresas individuales deben estar sujetas a un estándar extremadamente alto de acción responsable.

En segundo lugar, probablemente necesitemos algo como un OIEA para los esfuerzos de superinteligencia; cualquier esfuerzo por encima de un cierto umbral de capacidad (o recursos como cómputo) tendrá que estar sujeto a una autoridad internacional que pueda inspeccionar sistemas, requerir auditorías, probar el cumplimiento de los estándares de seguridad, imponer restricciones en los grados de implementación y niveles de seguridad, etc. El seguimiento del uso de cómputo y energía podría ser de gran ayuda y darnos la esperanza de que esta idea realmente pueda implementarse. En primer lugar, las empresas podrían acordar voluntariamente comenzar a implementar elementos de lo que tal agencia podría requerir algún día y, en segundo lugar, los países individuales podrían implementarlo. Sería importante que una agencia de este tipo se centre en reducir el riesgo existencial y no en cuestiones que deberían dejarse en manos de países individuales, como definir lo que se le debe permitir decir a una IA.

Tercero, necesitamos la capacidad técnica para asegurar la superinteligencia. Esta es una pregunta de investigación abierta en la que nosotros y otros estamos poniendo mucho esfuerzo.

Obviamente, necesitamos algún tipo de regulación sobre algo que tenga las capacidades de la IA. Pero parte del atractivo de la IA es que se está democratizando mucho, convirtiéndonos a todos en programadores, diseñadores gráficos, artistas e ingenieros de una sola vez de la noche a la mañana. ¿Realmente querríamos dar un paso atrás, ralentizar todo y restringir quién tiene acceso, cuando ya hemos ganado tanto en tan poco tiempo? Restringir el acceso y consolidar el poder podría hacer que la IA sea más segura, pero también podría limitar quién puede usarla y con qué propósito. Cortarnos la nariz para trastornarnos la cara.

¿Es la isla la clave para contener la IA?

Así:

Me gusta cargar…

Contenido original en Inglés


Leave a Reply

Your email address will not be published. Required fields are marked *