Ad esempio, nel video di seguito un algoritmo di apprendimento automatico ha appreso che potrebbe accumulare punti non partecipando a una regata, ma girando in circolo per ottenere punti. In un'altra simulazione "dove la sopravvivenza richiedeva energia ma il parto non aveva costi energetici, una specie si è evoluta in uno stile di vita sedentario consistente principalmente dell'accoppiamento per produrre nuovi bambini che potevano essere mangiati (o usati come compagni per produrre più bambini commestibili)". Ciò ha portato a ciò che Krakovna chiamava "cannibali indolenti".
È ovvio che queste macchine non stanno "pensando" in alcun senso, ma quando danno i parametri e la capacità di evolvere una risposta, è ovvio che questi robot troveranno alcune idee divertenti. In un altro test, un robot ha imparato a spostare un blocco schiaffeggiando il tavolo con il suo braccio e ancora un altro "algoritmo genetico [doveva] configurare un circuito in un oscillatore, ma invece [creava] una radio per raccogliere segnali dai computer vicini "Un altro sistema di rilevamento del cancro ha scoperto che le immagini di tumori maligni di solito contenevano governanti e quindi davano molti falsi positivi.
Ciascuno di questi esempi mostra le conseguenze indesiderate delle macchine fidate da apprendere. Impareranno ma ci confonderanno anche noi. L'apprendimento automatico è proprio questo: l'apprendimento è comprensibile solo dalle macchine.
Un ultimo esempio: in un gioco di Tetris in cui a un robot era richiesto di "non perdere" il programma mette in pausa "il gioco indefinitamente per evitare di perdere." Ora basta fare i capricci e avremmo un intelligente tre anni sulle nostre mani.
Rimani aggiornato seguici su Telegram