Colaboración con la competencia antes de una crisis

Qué puede aprender la industria de la IA de ejemplos industriales anteriores.

de Henry Chesbrough
{{item.title}}

La tecnología de la Inteligencia Artificial (IA) es tan prometedora como controvertida. La IA es un avance tecnológico en el desarrollo de software que mejora considerablemente la habilidad de los sistemas informáticos a la hora de hacer predicciones precisas y optimizar la toma de decisiones, entre otros beneficios. La IA es una tecnología de interés general capaz de generar valor en aplicaciones a muchas industrias. Las aplicaciones de la IA incluyen coches de conducción automática, diagnósticos de cáncer, robótica y elegir contenido de audio y vídeo. Pero la IA todavía es algo bastante arriesgado. El CEO de Tesla, Elon Musk, relacionó la investigación de la IA con “invocar al diablo”. En 2014 el físico Stephen Hawking, declaró en la BBC que: “El desarrollo de inteligencia artificial completa podría significar el final de la raza humana”. Y además la IA es conocida por encarnar muchos prejuicios en sus algoritmos.

La colaboración entre la competencia se convierte en algo esencial cuando los beneficios están amenazados por la materialización potencial de los riesgos. Después de la catastrófica explosión de una fábrica de Union Carbide en Bhopal, India, en 1984, toda la industria química decidió unirse para desarrollar mejores prácticas operativas. Apropiadamente, razonaron que otra explosión masiva podía causar tremendas restricciones regulatorias e, incluso, podía hacer que los gobiernos cerrasen todas las plantas de producción.

Los gigantes tecnológicos que usan la IA reconocieron sus riesgos potenciales y vieron que era necesario aliarse en una respuesta colectiva. En 2016, Amazon, Facebook, Google, DeepMind, Microsoft e IBM crearon la organización sin ánimo de lucro Partnership on AI (PAI). Apple se unió en 2017. Colectivamente se comprometieron en investigar recursos para permitir que la PAI estudie y formule las mejores prácticas para las tecnologías de la IA, que se fomente la comprensión del público de la Inteligencia Artificial y que sirva como una plataforma abierta al debate sobre la IA y su influencia en las personas y en la sociedad.

 

Colaboración competitiva para una industria de la IA más segura

La PAI ha creado material educativo diseñado para aumentar la comprensión del público de los beneficios, costes y progresos potenciales de la IA. Sin embargo, si nos basamos en las lecciones aprendidas la educación por sí sola no es suficiente. La PAI necesitará desarrollar la habilidad para observar y auditar los códigos informáticos de las empresas miembros para detectar riesgos potenciales, e incitar a que los ejecutivos competitivos adopten medidas para arreglar estos problemas en fases tempranas.

Por lo tanto, la PAI ha creado diversos grupos de trabajo como el Grupo de Trabajo para la Equidad, Transparencia y Responsabilidad (Fairness, Transparency and Accountability Working Group) y el Comité Director de la IA y de la Integridad de los Medios de Comunicación (AI and Media Integrity Steering Committee). Estos se encargan de tomar las decisiones oportunas para reaccionar a cualquier oportunidad o amenaza de la IA. Cada grupo está formado por expertos de disciplinas como la psicología, la filosofía, la economía, las finanzas, la sociología, la política pública y el derecho para discutir, proporcionar orientación y apoyar objetivamente los estudios de terceras partes sobre cuestiones emergentes relacionadas con el impacto de las IA en la sociedad. Los grupos de trabajo de la PAI desarrollan casos de estudio sobre el impacto de las IA en el trabajo y su uso en las condenas de justicia penal.

Aunque la PAI ha empezado con buen pie con estos grupos de trabajo, debe hacer más para mantener la colaboración entre la competencia a lo largo del tiempo. La PAI necesita evolucionar hacia una estructura que mantenga y apoye la implementación de respuestas ante nuevas oportunidades y amenazas. Lo que le falta a la PAI es un proceso para que los grupos de trabajo auditen a los miembros y haga que rindan cuentas para lograr los mejores estándares o las mejores prácticas.

En conclusión, la cooperación entre la competencia es a veces necesaria para mantener una industria. La industria de la IA todavía no ha sufrido ninguna catástrofe y ha formado proactivamente la Partnership on AI para intentar evitarla. Si se abordan los riesgos de manera conjunta y por adelantado, la PAI y las compañías IA pueden codesarrollar soluciones desde la etapa del diseño. Estas pueden reducir la probabilidad de un desastre o mitigar uno, si llega a suceder, y reducir los costes potenciales para resolverlo. El éxito de la PAI depende del crecimiento y el mantenimiento de una responsabilidad colectiva para la seguridad del desarrollo de la IA y reforzar verosímilmente las buenas prácticas de seguridad en toda la industria.

 

Este ensayo se ha extraído de un estudio más largo publicado recientemente. Véase Bez, Sea, and Henry Chesbrough. "Competitor Collaboration Before a Crisis What the AI Industry Can Learn” RESEARCH-TECHNOLOGY MANAGEMENT 63.3 (2020): 42-48

Perfiles de Henry Chesbrough