Czy myślisz, że Singularity, trenowane na danych ludzkich [i AI] z internetu, będzie w stanie odróżnić i ocenić niektóre rzeczy wyżej niż inne, na przykład jaki rodzaj danych (porady / zachowanie / działanie itp.) jest ‚inteligentny’, a jaki ‚głupi’, i będzie w stanie wybrać, w jaki sposób chce ‚być’? Dlaczego miałoby nie akceptować każdego możliwego scenariusza równo, bez rozróżnienia między tym, co dobre, a tym, co złe?