Un antiguo ejecutivo de Google advirtió sobre los peligros de la inteligencia artificial (IA) generativa y aseguró que no hay forma de ponerse de acuerdo para detener su avance.
«No hay forma de pararlo. No existe un tratado de tipo nuclear en el que los países puedan decidir: ‘Está bien, detengamos el desarrollo de la IA de la misma manera que acordamos detener el desarrollo de las armas nucleares’, afirmó Mo Gawdat en el ‘show’ Impact Theory, transmitido por YouTube.
«Esto no sucederá debido al ‘dilema del prisionero’. Porque la humanidad se ha atascado en una esquina donde nadie puede tomar la decisión de detener el desarrollo de la IA. Entonces, si Alphabet está desarrollando IA, entonces Meta* también debe desarrollar IA, Yandex en Rusia también debe desarrollar IA, y así sucesivamente», explicó Gawdat, quien fue durante más de una década director general de X Development, un laboratorio conocido antes como Google X y que está enfocado en proyectos que incluyen IA y robótica.
De esa misma forma, señaló que tal panorama no es a causa de una característica de la tecnología, sino que se debe a que vivimos en «un sistema capitalista orientado al poder que siempre priorizará el beneficio de ‘nosotros’ versus ‘ellos’ sobre el beneficio de la humanidad como un entero».
Por otro lado, dijo que uno de los mejores escenarios que le podría pasar a la humanidad en su relación con la IA es que «nos ignore a todos». «Lo creas o no este es un escenario mucho mejor que si la IA se enoja con nosotros o nos mata por error».
bueno ya no hay vuelta atras
como que no hay vuelta atrás claro que la hay
bueno pa lante
asi es mejor