E se trattassimo l'AI più come la sicurezza alimentare piuttosto che come la spedizione di software? Come sostiene @byjacobward, i produttori di hardware e le panetterie progettano tenendo conto del fallimento uno su un milione; l'AI non dovrebbe considerare i casi limite come più di un errore di arrotondamento?