wciąż trudno mi zaakceptować argumenty neuromorficzne, nawet gdy pochodzą od @ilyasut - dlaczego powinniśmy oczekiwać, że uczenie się w maszynach będzie wyglądać lub działać jak uczenie się u ludzi?
„To, co wydarzyło się z AGI i wstępnym uczeniem, polega na tym, że w pewnym sensie przekroczyli cel.
Zdasz sobie sprawę, że człowiek nie jest AGI. Ponieważ człowiek nie ma ogromnej ilości wiedzy. Zamiast tego polegamy na ciągłym uczeniu się.
Jeśli stworzę super inteligentnego 15-latka, to wcale nie wie zbyt wiele. Świetny uczeń, bardzo chętny. [Możesz powiedzieć:] 'Idź i zostań programistą. Idź i zostań lekarzem. Idź i ucz się.'
Możesz sobie wyobrazić, że wdrożenie samo w sobie będzie wiązało się z jakimś rodzajem okresu prób i błędów w nauce. To proces, a nie to, że po prostu rzucasz gotowy produkt.”
@ilyasut