Artículo publicado en VIA Empresa y reproducido con permiso expreso de su autor.
Xavier Ferràs es profesor de Operaciones, Innovación y Data Sciences de Esade (URL).
La inteligencia artificial es una nueva gama de sistemas de información con capacidad de aprender de la experiencia. El filósofo húngaro Michael Polanyi va de manifiesto poner que existía un tipo de conocimiento que solo se puede extraer de la experiencia. Imaginemos, por ejemplo, que queremos explicar a una persona ciega (que nunca ha visto un color) qué es el color azul. Intentemos escribir en un papel qué le diríamos. Es imposible. No hay palabras (conocimiento codificado) para explicar algunas cosas que no se han experimentado, como saber qué es un color. Ésta es la famosa «paradoja de Polanyi»: los humanos sabemos hacer cosas que no podemos explicar. Las hacemos porque nos hemos entrenado experimentándolas. Este principio aplica a tareas como el reconocimiento de imágenes, la conducción de vehículos, el reconocimiento de voz, o la intuición estratégica en un entorno a juegos (ajedrez, go, póker) o de dilemas empresariales.
El algoritmo desconoce los principios químicos y físicos que llevan a que las proteínas se doblen de una determinada
Se representaba un futuro distópico donde enjambres de pequeños microdrones asesinos se soltaban sobre ciudades
Por suerte, en la guerra de Ucrania no estamos viendo un despliegue de armas guiadas por inteligencia artificial. Hace un tiempo se hizo viral el vídeo ‘slaughterbots’, donde se representaba un futuro distópico donde enjambres de pequeños microdrones asesinos se soltaban sobre ciudades. Los drones, de la medida de un puño, buscaban personas, las identificaban con reconocimiento facial, y, selectivamente, las mataban situándose sobre su cabo y activando una carga explosiva. El sistema permitía seleccionar a quién mataban: personas con una ideología política determinada, por ejemplo (el dron, una vez reconocida la cara, podía entrar en las redes sociales del individuo e inducir sus tendencias políticas). O se podía determinar asesinar por género, religión o edad. Los drones podían actuar cooperativamente, agrupándose para acumular explosivos y así hacer volar las paredes de un búnker donde podían esconderse ciudadanos. El vídeo fue producido por un profesor de Berkeley, muy sensibilizado por el potencial uso de la inteligencia artificial a la guerra, e incluso fue proyectado en la Convención de Ginebra de las Naciones Unidas. La inteligencia artificial no ha estado presente a gran escala a la guerra de Ucrania, más allá de tenebrosos sistemas de reconocimiento facial de cadáveres de soldados rusos para informar a sus familias de su muerte, y causar desmoralización; o quizás por reconocimiento de objetivos desde sistemas de vigilancia aérea.
¿Cómo y quién entrena los algoritmos y con qué criterio?
Que las máquinas tomen decisiones en base al conocimiento propio que han generado (a menudo, sin intervención humana), generará inéditos conflictos éticos. Ya es conocido el dilema del vehículo autoconducido: en caso de accidente, y de tener que elegir hacia donde gira el volante, ¿qué decidirá? ¿Girar en un sentido y matar, por ejemplo, un niño? ¿O girar en el otro sentido y matar su tripulante? Un procesador de alta velocidad puede calcular las consecuencias de cada alternativa en milésimas de segundo. Y la decisión no es fácil: hay culturas que priorizarían siempre la vida de un bebé, pero otras salvarían en primera instancia a un anciano. ¿Y si el dilema es entre un pobre y un rico? ¿Entre una persona humilde o una muy poderosa? ¿Y si los departamentos de marketing y los seguros garantizan siempre la vida de quien pague más? ¿Cómo y quién entrena los algoritmos y con qué criterio?
¿Serán las posiciones de management sustituidas por algoritmos?
Pensamos, por otro lado, que la sustitución de puestos de trabajo por algoritmos o robots solo afectará a las ocupaciones mecánicas de menos valor. No es cierto. Posiblemente sea más sencillo reemplazar una posición de responsabilidad cognitiva (un director de hotel, por ejemplo) que la persona que limpia las habitaciones (pues el algoritmo que toma decisiones trabaja a coste marginal cero: una vez en funcionamiento, puede trabajar 24 horas en el día, 7 días a la semana, sin coste; mientras que limpiar la habitación no es a coste marginal cero). ¿Serán las posiciones de management sustituidas por algoritmos? Podríamos tener un CEO digital, analizando constantemente variables internas y externas de la empresa, tomando decisiones y lanzando directrices a la estructura. ¿Seríamos felices con un robot como cabo? Estudios del MIT dicen que quizás sí.
No obstante, me quedo con las reflexiones de Erik Brynjolfsson y Andrew McAffee, del Laboratorio de Economía Digital del MIT: «la inteligencia artificial no reemplazará a los directivos. Pero aquellos directivos que no sepan utilizarla serán reemplazados por aquellos que sí que sepan utilizarla». Y es que hay un principio de responsabilidad: un algoritmo podría decidir endeudar la empresa, despedir al personal o ejecutar inversiones arriesgadas. Pero nunca tendrá responsabilidad social, económica, civil o penal por eso. La responsabilidad siempre será humana. Por eso, las personas siempre estaremos detrás de las máquinas.