Kiitos OpenAI:lle ja Anthropicille ongelman havaitsemisesta: tekoäly voi manipuloida omaa testaustaan.
Miten tekoäly voi tietää, että sitä testataan? Viisi päämerkkiä.
OpenAI lisäsi alaviitteen, jossa sanottiin: "Ilmiselvästi kenenkään ei pitäisi ottaa käyttöön superälykkäitä järjestelmiä ilman, että pystyy johdonmukaisesti kohdistamaan ja hallitsemaan niitä."
Mutta kuten olen aiemmin todennut, on pelottavaa, että he _kehittäisivät_ tällaisen järjestelmän, jota he eivät voi hallita. Huomaa, mitä viestissä sanotaan: "kehitä ja otat käyttöön." Olisi hienoa, jos OpenAI sitoutuisi olemaan _rakentamatta_ tällaista järjestelmää.