OpenAI lade till en fotnot där det stod: "Självklart bör ingen använda superintelligenta system utan att kunna justera och kontrollera dem robust."
Men som jag har påpekat tidigare är det skrämmande att de _utvecklar_ ett sådant här system som de inte kan kontrollera. Lägg märke till vad inlägget säger: "utveckla och distribuera." Jag skulle älska om OpenAI skulle åta sig att inte _bygga_ ett system som detta.
Jag är glad att OpenAI är så tydliga med sina avsikter.
Jag är verkligen inte glad över att det är den värld vi befinner oss i:
Rekursiv självförbättring – AI som gör sig själv successivt smartare – gör säkerhetsutmaningarna mycket svårare.