Geoffrey Hinton, referente en inteligencia artificial, alerta sobre los riesgos de una superinteligencia artificial. Destaca la falta de métodos para garantizar su seguridad y la urgencia de investigar soluciones. Advierte que la IA podría crear virus mortales y armas letales autónomas. Hinton estima que hay un 10-20% de probabilidades de que la IA cause la extinción humana en los próximos 30 años.
Un científico ha alertado sobre el potencial de la inteligencia artificial para desarrollar virus altamente peligrosos.
