:: codemode.org :: :: mmmmm....apelsin ::

33 comments 2003-12-15 Lever vi i en simulering? [svt.se]


2003-12-20 17:20 Johan
klart :)

av 1,2 och 3 håller jag inte med om någon.

jag menar att det finns massor med problem som maskiner inte löser. tex: som att välja julklappar åt flickvänner.

maskiner och människor har långt från samma begränsingar.

människor är naturligtvis inte reducerbara till turingmaskiner.

men som sagt vi kommer nog inte längre :)


2003-12-20 11:26 erik
det där får du allt ta och empiriskt bevisa genom att bjuda på nybakt sockerkaka någon dag. :o)


2003-12-20 01:13 Johan
min summa:

* maskiner kan inte lösa haltproblemet
* maskiner kan inte baka sockerkaka (men jag kan det)


2003-12-19 19:30 erik
Ok, dags för summering.

Att du inte är en lampknapp är rätt enkelt att bevisa :o)

Att människan är något "större" än en Turingmaskin däremot, är betydligt svårare.

Det finns som jag tror diskussionen har visat inte ett enda känt problem som en människa kan lösa men som en turingmaskin inte kan lösa.

Till exempel:

* Haltproblemet är olösbart för människor och maskiner.

* Att schackspelande datorer inte kan baka sockerkaka är ungefär lika relevant som att jag inte kan prata kinesiska, eftersom båda sakerna bevisligen ingår i den teoretiska möjliga problemrymden för oss båda (det finns maskiner som bakar sockerkakor och det finns människor som pratar kinesiska).

* Att min hjärna är det enda i hela universum som kan beräkna vad min hjärna kommer att göra, gör den inte unik eftersom det finns andra program som har samma begränsning.

* Att människor kan diskutera system och problem (egentligen samma sak) är en väldigt effektiv process för att hitta mer eller mindre optimala lösningar på problem, men skiljer sig inte formellt från hur t.ex. ett kluster av datorer som kör olika neurala nätverk utbyter resultat med varandra. Möjligen är det betydligt trevligare.

Då står vi med tre möjligheter:

1. Det finns problem som en människa kan lösa men som en turingmaskin inte kan lösa, det är bara det att vi inte funnit dem än.

2. Maskiner och människor har samma begränsningar, men människor är ändå inte turingmaskiner utan "något annat" (okänt vad). Oavsett hur människolik en maskin lyckas bli kommer den aldrig kunna bli riktigt "mänsklig" för den är ingen människa. (Detta argument påminner om John Searles "Chinese Room"-argument.)

3. Människor och maskiner är båda i grunden turingmaskiner.

Jag tror på 3, du håller på 1 eller 2. Vet inte om vi kommer så mycket längre än så. Håller du med?


2003-12-19 18:32 Johan
"Tja, en öppen fråga" ..

hmm ... jorden är platt och jag är en lampknapp.

vsv.


2003-12-19 18:26 Johan
Argumentationen har loopat nu ...

Förvisso sant att det inte går att säga något om hur universum egentligen faktiskt är. Det kallas fysik och baseras på en annan vetensapsfilosofi.

Vad man kan veta något om är system.

Begränsingar i ett system x gäller bara x och inget annat. Begränsingar i en turingmaskin gäller bara turingmaskiner.


2003-12-19 15:19 erik
"God *does* play dice."

Tja, en öppen fråga, men det finns cellulära automatoner som genererar slumptal (rule 30 t.ex.) om man nu skulle efterfråga det.

"Universum är inget klockverk som man kan spola frammåt i. Vilket schrödingers-katt så tappert fått bevisa."

Ok, du slipper kanske sockerkakan (eller så blir det ännu fler, om multipla universum-teorin stämmer). Att man inför ett element av slump (alt: "fri vilja") ändrar dock inte på problemlösningsförmågan, vilket är vad vi diskuterar här.

"Det finns alltså en successorfunktion... steg 100 är alltså f(f(f(...(n)...)"

Ja, precis. Men du kan inte säga vilket mönster automatonen har i steg n utan att köra den. Det går alltså inte att på ett kortare sätt än att köra programmet uttrycka dess lösning.


2003-12-19 14:42 Johan
God *does* play dice.

Universum är inget klockverk som man kan spola frammåt i. Vilket schrödingers-katt så tappert fått bevisa.


2003-12-19 14:40 Johan
hmm..

"Varje nästföljande steg i exekveringen går såklart att förutsäga"

Det finns alltså en successorfunktion.

Jag antar att första steget är kännt? Att man inte börjar med ett tal givet från gud.

n = första steget.
f = steg++.

då är steg 2

f(n) och steg 3 är f(f(n))

steg 100 är alltså f(f(f(...(n)...)



2003-12-19 14:17 erik
"jag kan nämligen köra programmet på en annan dator med samma indata först."

Ja precis, det går alltså att simulera. :o)

O hade jag haft en Johan-hjärna simulerad i ett identitiskt universum som vårt eget hade jag kunnat snabbspola fram det 24 timmar och se att du bakar sockerkaka.

Hm. Fast det är klart. Inuti det universumet skulle ju Erik-hjärnan antagligen få samma idé så det hade kunnat bli rätt kul rekursiva effekter av det där. :o)

Universum hade tagits över av sockerkaka.


2003-12-19 14:08 erik
Cellulära automater går inte att förutsäga utan att exekvera. Varje nästföljande steg i exekveringen går såklart att förutsäga, men det går inte i steg 1 säga hur automatonen kommer att se ut i steg 100 (sanning med modifikation: det finns 4 klasser av automatoner, det är bara en av dem som detta gäller för de andra genererar förutsägabara mönster).

Game of Life är bara ett exempel.

Angående kryptografi och automatoner, se:
http://en2.wikipedia.org/wiki/Cellular_automaton#Uses_in_Cryptography


2003-12-19 14:03 Johan
givetvis går det att förutsäga vad game of life kommer att göra (tom jag kan göra det). jag kan nämligen köra programmet på en annan dator med samma indata först.


2003-12-19 14:02 Johan
killarna på random.org hade nog uppskattat dina icke prediktibla algoritmer.


2003-12-19 13:58 erik
"Precis, problemet går inte att algoritmiskt beskriva"

Det sa jag aldrig. Bara att det inte går att förutsäga utan att exekvera i din hjärna. :o)

"Denna individen slår alltså maskinen."

Jamen jag kan ju skriva ett program som DU inte kan förutsäga vad det kommer att göra, t.ex. ett Game of Life. Så i det fallet slår ju datorn dig.

Vilket för övrigt är precis vad historien om Loocus the Thinker försöker visa.


2003-12-19 13:51 Johan
"Hehe, ja förmodligen. Du kanske ska baka en sockerkaka? ;o)"

Precis, problemet går inte att algoritmiskt beskriva. Men jag kommer att lösa det.

Denna individen slår alltså maskinen.


2003-12-19 13:45 erik
Hm, vi är tillbaks där vi började, i skillnaden mellan mänsklig slutledningsförmåga och matematisk bevisföring.

Våra synsätt skiljer sig åt i att du tror det finns problem som en människa kan bevisa men inte en maskin. Jag hävdar att så ej är fallet.

Eller är det bara "diskutera" människor kan göra som maskiner inte kan? För en diskussion mellan två hjärnor är ju bara ett sätt av flera att göra en sökning i problemrymden (ett väldigt effektivt sådant förvisso, särskilt om hjärnorna intagit ett par öl :o)

Man hade lika gärna t.ex. kunnat slumpa fram olika lösningar och testa dem, men det hade förmodligen tagit betydligt längre tid.


2003-12-19 13:28 erik
"detta gäller inte för människor. för vi kan diskutera *om* system."

Ja vi kan diskutera de flesta problem (vi brukar ha svårt för t.ex. oändligheter och problem i fler dimensioner än 4) men vi kan inte bevisa dem, vilket är det intressenta.

Det finns ingenting, nichts, nada som säger att en dator inte kan resonera på samma sätt. Ett neuralt nätverk på en dator behöver inte heller komma fram till något bevis. Däremot kan det lämna mer eller mindre troliga svar, precis som en människa.

"försök beskriva algoritmiskt vad jag ska göra i morgon. det kommer att ta mig 24 timmar att räkna ut det :)"

Hehe, ja förmodligen. Du kanske ska baka en sockerkaka? ;o)

Cellulära automata går heller inte att förutsäga (utan att exekvera dem), trots att de i allra högsta grad är algoritmiska.


2003-12-19 13:16 Johan
försök beskriva algoritmiskt vad jag ska göra i morgon. det kommer att ta mig 24 timmar att räkna ut det :)


2003-12-19 13:12 Johan
exemplet med sockerkaka försöker illustrera att ett system bara kan agera i sitt system. schackdatorer kan spela schack och inget annat.

detta gäller inte för människor. för vi kan diskutera *om* system.


2003-12-19 12:46 erik
Hehe... nu börjar vi närma oss personangreppsnivån. Härligt.

"Detta var nog pudels kärna. Jo det finns många sådana. Be tex en schackdator att baka sockerkaka får du se."

Hm. Du blandar ihop en specifik maskin med generell bevisföring, men det hade givetvis gått att programmera om schackdatorn. Jag är för övrigt minst lika kass på att baka sockerkakor som en schackdator så det bevisar ingenting. Att jag dessutom är lika kass på schack som en sockerkaka gör inte saken bättre. ;o)

Nä, bakning överlåter jag åt vår bakmaskin.

"Vi kan som jag sa tidigare diskutera *om* system (gå hem och klura på den en stund). system kan bara diskutera *i* sitt eget system."

Jamen kära nån. Även vi är ju begränsade. Jämför med frågan: Gud är allsmäktig, men kan gud skapa en sten som är så tung att hon inte själv kan lyfta den?

Varje analytisk maskin kan agera på en problemrymd. En kompilator kan hantera problemrymden som innefattar det språk kompilatorn ska översätta. En väderdator kan hantera problemrymden av metereologi. Ett algebra-program kan hantera problemrynden av algebra-problem. En människa kan agera inom problemrynden som innefattar att springa när man får syn på en tiger men även som en ren bonus problemrynden av en rad matematiska problem (dock inte alla).

Det finns _idag_ ingen maskin med motsvarande förmåga, däremot finns det massor av maskiner som bakar underbara sockerkakor. :o)

"tekniskt sett heter det att vi är ett meta-system, men det kanske är lite för avancerat..."

Jaså, vi är ett metasystem. Varför inte ett meta-meta-system? Eller ett meta-meta-meta-system? Det är ju ännu bättre.

Begrunda historien om Loocus the Thinker:
http://tinyurl.com/28qtv


2003-12-19 11:43 Johan
"För det första, det finns inga kända problem som en människa kan lösa men som inte går att lösa (teoretiskt) algoritmiskt. Alltså, hjärna == dator när det kommer till problemlösningsförmåga."

Detta var nog pudels kärna. Jo det finns många sådana. Be tex en schackdator att baka sockerkaka får du se.

Vi kan som jag sa tidigare diskutera *om* system (gå hem och klura på den en stund). system kan bara diskutera *i* sitt eget system.

tekniskt sett heter det att vi är ett meta-system, men det kanske är lite för avancerat ...




2003-12-19 11:31 erik
Det här börjar kännas ungefär som när man ska be någon bevisa guds existens. "Gud står utanför all logik", "Gud är större än vad våra hjärnor kan hantera, därför går det inte att bevisa hennes existens men hon finns i alla fall." Har man väl bestämt sig för att tro på gud så går det inte att resonera sig fram till något annat. Man tror ju vad man vill tro. Halleluja.

Som tur är vet jag att du inte är religiös. :o)

Låt oss bara fastslå följande:

För det första, det finns inga kända problem som en människa kan lösa men som inte går att lösa (teoretiskt) algoritmiskt. Alltså, hjärna == dator när det kommer till problemlösningsförmåga.

För det andra, människans tankeförmåga sker på en helt annan abstraktionsnivå än den enkla Turing-maskinens, men en dator kan uppnå samma abstraktionsnivå (Turing själv resonerade kring detta i sitt paper om computational intelligence).

T.ex. i ett program som används för att göra metereologiska mätningar resonerar datorn genom att använda objekt (antar jag) av typen "vind", "vatten", "land" etc. Det finns ingenting på processornivå som heter "vatten", ändå finns begreppet i en högre nivå inuti maskinen och det hjälper datorn att mer effektivt lösa problem inom ett visst domänområde.

Människans domänområde är (än så länge) betydligt större, men det är endast en gradskillnad.

Sålunda är båda en framtida "robotmänniska" såväl som ett simulerat universum åtminstone i teorin fullt möjliga. Det går åtminstone inte att bevisa att de _inte_ är möjliga.

Slutligen, bara för att vi ännu inte begriper varje steg i processen som leder fram till en mänsklig tanke betyder inte det att det inte _går_ att formalisera eller kopiera. Att någon inte känner sig som en maskin är inte ett bevis på att personen i fråga inte är en maskin.

Men nu ska åtminstone den här maskinen käka lunch! :o)


2003-12-18 18:01 Johan
Man kan föra i bevis saker om axiomsystem som vi definierat. Detta har inget med världsbild att göra.

Man kan inte föra ett matematisk/logisk diskusioin om människan eftersom hon inte är ett axiomsystem (jag känner iaf till en individ som inte är ett axiomsystem :). Ingen bevisföring som tillämpas på ett axiomsystem har någon som helst betydelse eller mening när man tillämpar dem på en människa. Detta har inte heller något med världsbild att göra.


2003-12-18 16:44 erik
Som sagt, det hänger på ens världsbild. T.ex. påståenden som "människan är inget system" kan man lika gärna hämta från biblen eller andra sagor.

Visst har vi en fascinerande förmåga att använda symboler och bildspråk för lösa och diskutera problem, men skillnaden mellan oss och en optimerande kompilator som analyserar kod är endast en fråga om prestanda och bredd. En skillnad som för övrigt minskar för varje år som går.

Att människan inte skulle ha några begränsningar vore förvisso en trevlig tanke, men det är inte sant.


2003-12-18 16:09 Johan
Det här börjar bli lite fånigt. Människan är inget system. Vi har förmågan att diskutera *om* system. Alltså kan inga begränsingar hos ett givet system tillämpas på människan.


2003-12-18 12:35 erik
"Det finns ett begränsat system alltså är människan lika begränsad."

Du läste uppenbarligen inte vad jag skrev. Den slutsatsen går inte att dra, precis som det inte går att dra slutsatsen att människan saknar begränsningarna. Åtminstone inte förrän man hittar ett fall där de teoretiska förmågorna skiljer sig åt.

Tills man gör det får man förlita sig på sin egen världsbild samt de faktiska förmågor som de båda arterna (människan, maskinen) visat sig inneha.

"Själklart kan människa lösa det generella haltproblemet. Det är bara en fråga om tid. "

Det där tror jag inte på. Bevisa det! :o)

Du kan ju prova själv. Kommer det här lilla 43-bytesprogrammet att stanna? i, j, k är godtyckliga heltal.

for(i=j=k=1;--j||k;k=j?i%j?k:k-j:(j=i+=2));

Programmet letar efter ett ojämnt perfekt tal. Hittills har ingen kunnat avgöra om ett sådant finns...

(Givetvis kom jag inte på kodsnutten själv, den kommer härifrån:
http://en2.wikipedia.org/wiki/Halting_problem
under rubriken "Can Humans Solve The Halting Problem?" lite längre ned på sidan.)


2003-12-18 10:27 Johan
Det omvända resonemanget blir fulständigt absurt.

"Det finns ett begränsat system alltså är människan lika begränsad."

Vilket betyder att människan är lika begränad som en lampknapp.

Själklart kan människa lösa det generella haltproblemet. Det är bara en fråga om tid.



2003-12-17 23:00 erik
"Haltproblemet är ingalunda omöjligt för en människa att lösa."

Oh nej. I praktiken är det självfallet omöjligt att lösa. En människa är väldigt duktig på att lösa det i specifika fall (det är tur, annars hade vi varit arbetslösa som programmerare) men det finns en praktisk och faktisk gräns som man inte kan bortse från.

Det är annars lite lustig argumentation du använder:

1. Det går inte att bevisa vad en människa inte kan göra.
2. Det går att bevisa vad en dator inte kan göra.
3. Alltså kan en människa mer än en dator.

Hm. OK. Dåså. Det går inte att bevisa att en människa inte kan flyga. Alltså kan människor flyga. Det går inte att bevisa att människor dör utan syre. Alltså kan människor leva utan syre. Det går inte att bevisa att baksidan av månen inte är gjord av grön ost när vi inte betraktar den.

Wow, det här var ju kul. Människor kan göra ALLT. Fantastiskt. :o)

Nej, det där tror jag inte på. Jag håller med om dina premisser men inte din slutsats. Jag skulle vilja ändra argumentationen till följande:

1. Det går inte att bevisa vad en människa inte kan göra (där håller jag med så tillvida att man av praktiska skäl inte formellt kan bevisa det... Fast jag vidhåller att samma teoretiska begränsningar som en dator har vad gäller haltproblemet har också en människa. Nämn gärna ett exempel som visar motsatsen.)
2. Det går att bevisa vad en dator inte kan göra (där håller jag såklart också med).
3. Alltså går det _inte_ att bevisa att en människa kan mer än en dator!

Det är ju precis det här bonus-argumentet nedan försöker visa.

Dvs: jag kan inte _bevisa_ att människor skulle vara beräkningsmässigt likvärdiga med datorer, det påstår jag inte. Däremot går det INTE att använda "Gödel-argumentet" för att visa att människor på något sätt har magiska matematiska förmågor som en dator inte har.

Eftersom "beviset" inte säger nånting handlar det alltså i grunden om vad man har för världssyn.

I min världssyn har människor en fantastisk mönsterigenkänningsförmåga och ett sinnrikt abstrakt tänkande som använder symboler för att effektivt lösa generella problem. Men det är på inget sätt magiska förmågor som behöver någon slags gudomlig assistans och jag ser absolut inget oöverstigligt hinder för att en konstruerad eller fram-odlad maskin skulle kunna uppnå samma nivå av problemlösningsförmåga.

Andra människor har en annan världssyn och vissa vägrar accceptera tanken på att människan i grunden "bara" är en maskin. Det får dem gärna tycka, men det går inte att använda Lucas/Penrose/Bertil-argumenten (alla baserade på Gödels teori) för att bevisa det.


2003-12-17 20:31 Johan
Haltproblemet är ingalunda omöjligt för en människa att lösa. Det finns ingen matematisk modell över vad en människa kan göra alltså kan man inte bevisa vad en människa kan / inte kan.
Att haltproblemet är olösbart för en maskin (dator) är exakt vad det handlar om.
En maskin är alltså mer begränsad än en männsika => man kan inte simulera en människa med en maskin.


2003-12-16 15:08 erik
Kul diskussion :o)

Att haltproblemet är olösbart för en dator (och en människa!) har ingenting med saken att göra. Resonemanget bygger (bl.a.) på en grov överskattning av den mänskliga förmågan att beräkna Gödeltal för komplexa system samt bedöma dess konsistens. Se bl.a.:
http://homepage.ntlworld.com/g.mccaughan/g/remarks/lucas.html
eller GEB-boken s. 475-477.

Bonus-argument:

All computer programs are algorithms. (true)
There is no feasible algorithm for checkmate in chess. (true)
Therefore checkmate by computer is impossible. (false)

Jag förstår att du blandar in gud...


2003-12-16 13:36 Johan
Hehe.. inget misstag. Människor kan inte existera i en *datorsimulering* vilket saken handlade om. För att, som sagt, haltproblemet är oläsbart.

Att människor ev skulle kunna existera i en annan, kanske gudomlig, simulering är en helt annan sak.


2003-12-15 22:49 erik
Vad har det med saken att göra?

Ah. Jag förstår. Du har blandat ihop matematisk bevisföring med mänsklig slutledningsförmåga och därmed dragit slutsatsen att människans medvetande inte kan vara algoritmiskt och sålunda är en simulation i en dator omöjlig (vi är ju trots allt medvetna, åtminstone inbillar vi oss det).

Ett förståeligt misstag. ;o)


2003-12-15 22:07 Johan
Nej. För haltproblemet är olösbart.


name: remember me
comment:


enter the code:

21611 links, 2648 comments, 12951465 clicks.