Diskussion:Turing-Test

Letzter Kommentar: vor 22 Tagen von Xenein in Abschnitt Thomas Pfanne und ChatGPT

Brain

Bearbeiten

Das Brain (ein Chatbot für ICQ/MSN/AIM/GoogleTalk) hat den Turing-Text bestanden: http://www.spaakensoft.de/brain/brain.htm#uni_oldenburg Bitte überarbeiten.

Kaum vorstellbar, wie man hinter dem größtenteils sinnlosen Gestammel des „Brains“ irrtümlich einen menschlichen Gesprächspartner vermuten kann. Lowenthusio 18:28, 28. Apr. 2009 (CEST)Beantworten

Warum hat ELIZA nich gewonnen?

Bearbeiten

Das verstehe ich nicht, daß der Turing-Test noch nicht bestanden sein soll. ELIZA ist doch ein Programm, "das in 30% aller Tests einem Menschen mindestens fünf Minuten lang erfolgreich menschliche Intelligenz vorspielt." --Cami de Son Duc 18:46, 1. Jun 2005 (CEST)

  • Wenn 30% aller Fragesteller nach 5min mit dem Programm noch nicht sicher sagen koennen, ob der Gespraechspartner nur ein Programm ist, gilt der Test deswegen noch nicht als bestanden. Das Zitat aus dem Artikel bezog sich auf eine etwas optimistische Prognose Turings, die nicht das Kriterium fuer das Bestehen des Test darstellt. Ich habe den Artikel etwas ueberarbeitet. Vielleicht wird jetzt etwas klarer, wieso ELIZA den Turing-Test nicht besteht. --Torsten Grote 01:02, 15. Aug 2005 (CEST)

--ELIZA hat auch deshalb nicht gewonnen, weil ELIZA bei einem wichtigen Kriterium vollkommen versagt - wie auch alle modernen Chatterbots: sobald man die Antwort des Bots als neue eigene Aussage nimmt, beginnt ein heilloses durcheinander. Der ordnende Faktor den der menschliche Geist darstellt wird so ausgeschaltet. Wenn ihr also herausfinden wollt, ob ihr es mit einem Bot zu tun habt, wiederholt einfach sein Geschwätz. 141.2.67.124 11:28, 10. Jan 2006 (CET)

Bewusstsein

Bearbeiten

Zitat: "falls Intelligenz und Bewusstsein einander nicht bedingen, kann der Turing-Test die Frage nach dem Bewusstsein einer Maschine nicht beantworten." Bei dem Test geht es doch gar nicht um die Feststellung von Bewusstsein. Jedenfalls wird das nirgends erwähnt. Warum soll dieser Punkt dann als Kritik stehen bleiben? Das ist wie wenn ich einer Waage vorwerfe keine Lichtstärke messen zu können. Bitte mal drüber nachdenken. Eclipse 03:05, 28. Aug 2005 (CEST)

  • Der Satz zielt hier auf die Forderungen der starken KI ab: "Im Verständnis des Begriffs künstliche Intelligenz spiegelt sich oft die aus der Aufklärung stammende Vorstellung vom Menschen als Maschine wider, dessen Nachahmung sich die sog. starke KI zum Ziel setzt: eine Intelligenz zu erschaffen, die wie der Mensch nachdenken und Probleme lösen kann und die sich durch eine Form von Bewusstsein beziehungsweise Selbstbewusstsein sowie Emotionen auszeichnet. Die Ziele der starken KI sind nach Jahrzehnten der Forschung illusionär und vom technischen Fortschritt unbeeindruckt geblieben." Valio 16:48, 30. Okt 2005 (CET)

Ist es denkbar, dass Alan Turing davon ausging, dass die psychiatrische Behandlung bis zum Jahr 2000 derartig doppel-plus-schlimm voranschreitet, dass 30% der Menschen nur noch Grütze in der Birne haben? Es wäre also interessant zu wissen, wann die Prognose getroffen wurde (vor oder nach der Kastrations-Therapie), und ob Turing ähnlich wie angeblich Albert Einstein jedenfalls zeitweise verbittert war (ich denke hier an die (vermeintlichen) Einstein Zitate über die Dummheit der Menschheit und über den Weltkrieg Nr. 4). --213.54.92.228 19:20, 12. Dez 2005 (CET)

Habe die 30%-Stelle mal überarbeitet, entsprechend der von Turing 1950 getätigten Vorhersage: „I believe that in about fifty years' time it will be possible, to programme computers, with a storage capacity of about 10^9, to make them play the imitation game so well that an average interrogator will not have more than 70 per cent chance of making the right identification after five minutes of questioning.“ --87.193.13.192 18:48, 10. Feb 2006 (CET)

exaktes Kriterium

Bearbeiten

Vielleicht les ich nich genau genug, aber irgendwie steht da gar nicht, wann denn nun ne Maschine den Turing-Test bestanden haben soll... Also wenn der Test mit folgenden Rollen abläuft: A=Computer, B="der besteste Mensch", C="ein zufällig herausgegriffener Mensch"; da reicht es also nicht, wenn C mit einer relativen Häufigkeit von 30% entweder mit seiner Bewertung falsch liegt oder unentschieden ist? Aber wieviel Prozent denn dann? 80%? Oder rauf von 20% auf 25%? Und was ist ne intensive Befragung? Und was ist, wenn B immer nur "Kiss my butt!" sagt - egal was gefragt wurde? --213.54.92.228 19:25, 12. Dez 2005 (CET)

Turing sagt dazu original: We now ask the question, "What will happen when a machine takes the part of A in this game?" Will the interrogator decide wrongly as often when the game is played like this as he does when the game is played between a man and a woman? These questions replace our original, "Can machines think?" (Fettdruck von mir) --87.193.13.192 18:48, 10. Feb 2006 (CET)

Der Test kann prinzipiell nur die Antwort "Mensch erscheint menschlicher als Maschine", "Maschine erscheint menschlicher als Mensch" oder "kein statistisch signifikanter Unterschied gefunden" liefern. Also muss C zumindest mit der selben (bis auf nicht statistisch signifikante Fehlbeträge) relativen Häufigkeit falsch liegen mit der er richtig liegt. Wie klein der statistische Fehler gemacht werden muss, wird sich wohl bei verschiedenen Bewerben/Preisen etc. unterscheiden. Icek 15:21, 9. Jul. 2007 (CEST)Beantworten
Also hat der Chatbot hier (http://www.informatik.uni-oldenburg.de/~iug07/mob/latex/node30.html) den Turing-Test bestanden, oder nicht? Schließlich haben sich "dreiviertel der Teilnehmer falsch entschieden"! Das entspricht doch völlig den Anforderungen. Der Bot ist zwar trotzdem alles andere als intelligent, sondern die Fragen waren schlecht gewählt ("wer salami ich?!" verwirrt vielleicht einen Menschen, ein bot wie Elize nimmt einfach die Antwort für "* Salami *"). Aber das ändert ja nichts am ziemlich eindeutigen Ergebnis. Oder habe ich irgendetwas übersehen? -- ichthys1 17:44, 20. Jul. 2008 (CEST)Beantworten
Ich habe mir die Chatlogs angeschaut und es scheint mir, als ob die Teilnehmer keine Ahnung hatten, wie man einen Roboter testen kann. Außerdem hat sich der menschliche Gegenpart ziemlich roboterhaft angestellt. Deshalb sollte man für den Turing-Test eine großere Testmenge durchführen, mit verschiedenen Personen in der Frager und in der Menschen-Rolle. Dann würde relativ schnell herauskommen, dass der Chatbot, der dort getestet wurde, nur sehr eingeschränkt wie ein Mensch wirken kann. Und schon garnicht wird der Zweck des Turing-Tests erfüllt, nämlich die Frage zu klären, ob ein Computerprogramm Denkt und ein Bewusstsein hat. Man sollte an diesen Aspekt nun wirklich nicht in Hacker-Manier herangehen...(nicht signierter Beitrag von 78.52.229.24 (Diskussion) 14:54, 18. Mär. 2009)
Bitte WP:KTF beachten. Die Interpretation der Experimente haben wir gottseidank nicht zu erledigen. Wir können allenfalls Interpretationen der Ergebnisse zitieren. Gruß, norro wdw 15:54, 18. Mär. 2009 (CET)Beantworten

Ist das wirklich der Tunring Test

Bearbeiten

Ich habe bei mir an der Uni der Turing-Test anders kennen gelernt, als er hier in Wikipedia beschrieben wurde. Und zwar wurde dort folgender Test vorgestellt:

Ein Befrager hat ein Terminal vor sich und chattet mit einem Mann und einer Frau. Der Mann muss vorgeben eine Frau zu sein und der Befrager hat eine gewisse Zeit. Dann muss er sagen wer die Frau und wer der Mann ist. Das schafft er mit einer gewissen Erfolgsquote.

Dann wird der Mann durch einen Computer ersetzt, der vorgeben muss die Frau zu sein.

Der Turing-Test ist nun bestanden, wenn der Computer genau gut wie ein Mann sich als Frau ausgeben kann. (nicht signierter Beitrag von Tobias mueller (Diskussion | Beiträge) 12:31, 9. Jul. 2006)

Das ist nicht der Turing-Test, sondern die vorhergegangene theoretische Abhandlung darüber, ob Maschinen Intelligenz aufweisen können. Die von Dir genannte Versuchsanordnung bezeichnet das "Imitationsspiel".-- 195.202.223.82 20:17, 9. Dez. 2009 (CET)Beantworten
Ich halte die Nachfrage für berechtigt, wie auch die ausführlichere englische Variante des Artikels zeigt. Das Imitation Game kann als erste Version des Turing Tests gelesen werden, die von der Standardinterpretation unterschieden wird. Richtig wäre also: Beides sind historische Varianten des Turing Tests. Eine Darstellung nur der Standardinterpretation ist zu kurz gefasst und verschweigt einen relevanten Entwicklungsschritt.--Damohasi (Diskussion) 22:45, 31. Aug. 2020 (CEST)Beantworten

Turing Test abstrakter nehmen

Bearbeiten

Letzendlich ging es Turing doch nicht darum ob eine Maschine nun den speziellen Test besteht, sondern dieser Test ist doch nur ein Synonym dafür, dass eine Maschine, die sich verhält wie ein Mensch eben auch denkt wie ein Mensch. Der Turing Test ist allein natürlich nicht ausreichend für den Beweis künstlicher Intelligenz, erschien Turin aber damals als erster Schritt auf dem Weg dorthin. Im Grunde läuft es aber darauf hinaus, dass ein Roboter, dessen Verhalten in allen Belangen vollkommen menschlich ist, natürlich auch intelligent ist. (nicht signierter Beitrag von 164.61.216.37 (Diskussion) 11:22, 25. Jul. 2006)

Definitionsfrage

Bearbeiten

Die Kritiken wie "testet also nur einen Teil dessen, was unter (menschlicher) Intelligenz verstanden wird" werfen die fundamentale Frage auf: Was wird unter Intelligenz verstanden bzw. wann ist ein Subjekt intelligenter als ein anderes, was ist hier das Entscheidungskriterium? Wie gut schneiden Programme in IQ-Tests ab (wobei sie natürlich nicht auf den speziellen Test vorbereitet werden dürfen)? Ist vielleicht der Turing-Test eine der brauchbarsten Definitionen von Intelligenz? Icek 15:21, 9. Jul. 2007 (CEST)Beantworten


Also was unter "Intelligenz" verstanden wird, ist schon recht klar definiert. Und zwar hier: http://de.wikipedia.org/wiki/Intelligenz

"Was wird unter Intelligenz verstanden bzw. wann ist ein Subjekt intelligenter als ein anderes", sind zwei völlig verschiedene Fragen. Und wann eine Person als intelligenter als eine andere gilt (nicht unbedingt "ist") ist entweder Resultat eines IQ-Tests (nie wirklich objektiv, das ist ausgeschlossen) oder das Ergebnis des subjektiven und objektiven Empfindens des menschlichen Umfeldes.

Grundsätzlich sind das eher geisteswissenschaftliche Fragen, denen man sich nur annähern kann, die aber im Gegensatz zur Naturwissenschaft nie eine eindeutige und richtige Lösung haben werden. (nicht signierter Beitrag von 79.203.34.119 (Diskussion) 22:27, 10. Aug. 2011 (CEST)) Beantworten

Loebner-Preis

Bearbeiten

In diesem Artikel steht, dass es für eine Bronzemedalie im Loebner-Preis 3'000.- gibt, dort steht aber im Artikel 2'000.-

Ich hätte auch noch eine Anmerkung. Im Text steht, der Preis wird an das Computerprogramm verliehen, nicht etwa an den Entwickler. Zumindest in DE ist es aber nicht möglich, etwas an ein Rechtssubjekt zu verleihen (ist in USA anders, ich weiss) aber soll das Geld wirklich an ein Computerprogramm überwiesen werden? 141.50.163.224 11:50, 10. Dez. 2008 (CET)Beantworten

++ Ähh, ja. Weil dann kann sich das Programm leckere Sachen von kaufen, ohne dem Entwickler gegenüber Rechenschaft ablegen zu müssen. Vergleichbare Situation; Du isst deinen Nachtisch vor der Hauptmahlzeit, ohne vorher zu beten. (nicht signierter Beitrag von 92.225.54.55 (Diskussion) 22:25, 16. Feb. 2011 (CET)) Beantworten

Zur Kritik

Bearbeiten

„Viele Menschen (z. B. kleine Kinder oder Menschen mit psychischen Problemen) würden den Turing-Test nicht bestehen, sind aber trotzdem intelligent.“

Gilt dasselbe nicht auch für Menschen mit physischen Problemen (etwa Stummheit)? Lowenthusio 17:33, 28. Apr. 2009 (CEST)Beantworten

Ja schon. Und darum steht ja auch das z. B. (zum Beispiel) da. (nicht signierter Beitrag von 193.170.48.250 (Diskussion | Beiträge) 05:49, 11. Nov. 2009 (CET)) Beantworten

Wie lange dauert der Turing Test ???

Bearbeiten

Es macht ja einen Unterschied ob man 1 Minute 10 Minuten oder 1 Stunde Zeit hat. Hat jemand dafür Quellen wie lange so ein Test dauern muss ? (nicht signierter Beitrag von 128.131.199.227 (Diskussion) 11:25, 22. Mär. 2011 (CET)) Beantworten

überzeugen

Bearbeiten

Beide versuchen, den Fragesteller davon zu überzeugen, dass sie denkende Menschen sind.
Unglückliche Formulierung. Wie man bei Deep Blue gesehen hat, "hat er gewonnen. Basta." ohne "überzeugen zu wollen, dass er besser ist". Wie wäre es mit:
Beide antworten in der Weise, dass der Fragesteller davon überzeugt sein soll, dass er es in beiden Fällen mit einem menschlichen Gesprächspartner zu tun hat. ... oder ähnlich. GEEZERnil nisi bene 19:40, 22. Mär. 2011 (CET)Beantworten

wir habens nicht verstanden, haben wir?

Bearbeiten

alleine schon unqualifizierte Kommentare wie "Dass sich diese optimistische Vorhersage bisher nicht erfüllte, sehen viele als einen Beleg für die Unterschätzung der Komplexität natürlicher Intelligenz." seh ich schon mal als nicht enzyklopädiewürdig an. Computer sind auch komplex, wir haben das prinzip aber verstanden, doch solche Kommentare sind peinlich wenn ahnungslose, wie so oft in der wikipedia, schwafeln beginnen. (nicht signierter Beitrag von Blbef (Diskussion | Beiträge) 16:12, 23. Jun. 2011 (CEST)) Beantworten

Chinese Room Experiment

Bearbeiten

Gibt es einen bestimmten Grund, warum unter "Kritik" das "Chinese Room Experiment" keine Erwähnung findet? meines Wissens nach sollte dieses doch Hauptsächlich dazu dienen die Eignung des Turing-Tests zu widerlegen. lostNerd (nicht signierter Beitrag von 213.61.58.66 (Diskussion) 14:15, 19. Aug. 2011 (CEST)) Beantworten

Bewusstsein

Bearbeiten

Hallo Mat. Schön, dass Du Dich hier engagierst, aber solche Ergänzungen sind sachlich schlicht falsch.

  1. Der TT wurde als Test für Intelligenz und nicht als Test für phänomenales Bewusstsein vorgeschlagen. Der TT hat nicht den Anspruch, das Vorhandensein von Bewusstsein prüfen und man kann daher auch nicht gegen ihn einwenden, dass er nicht das Vorhandensein von Bewusstsein prüfe.
  2. Bitte schau dir auch das Chinesische Zimmer an, dort geht es nämlich auch nicht um Bewusstsein. Vielmehr geht es um das Verhältnis von Syntax und Semantik und die These, dass Symbolverarbeitung alleine nicht hinreichend für Intelligenz sein kann.
  3. Der Verweis auf Zombies ist ebenfalls deplaziert. Bei den Zombies geht es um hypothetische Wesen, die normalen Menschen biologisch gleichen, aber ohne Bewusstsein sind. Beim TT geht es um Machinen, die Menschen biologisch nicht gleichen und die Frage, ob Ihnen Intelligenz zugeschrieben werden kann. Sorry, aber das ist ein anderes Thema.
Beste Grüße, --David Ludwig 15:17, 27. Nov. 2011 (CET)Beantworten


zu 1.: Der Turing-Test sollte die Frage beantworten "ob Maschinen denken" können (original: "Can machines think?"). Damit stellt sich aber automatisch die Frage was "denken" eigentlich ist. In diesem Rahmen hat sich Turing in der Tat mit der Frage des Bewusstseins beschäftigt und vertritt dabei den Standpunkt, dass man den Turing-Test ebenfalls für den Nachweis eines solchen als genügend ansehen sollte.
"And so on, What would Professor Jefferson say if the sonnet-writing machine was able to answer like this in the viva voce? I do not know whether he would regard the machine as "merely artificially signaling" these answers, but if the answers were as satisfactory and sustained as in the above passage I do not think he would describe it as "an easy contrivance." This phrase is, I think, intended to cover such devices as the inclusion in the machine of a record of someone reading a sonnet, with appropriate switching to turn it on from time to time.
In short then, I think that most of those who support the argument from consciousness could be persuaded to abandon it rather than be forced into the solipsist position. They will then probably be willing to accept our test."
(Aus dem Abschnitt "(4) The Argument from Consciousness", COMPUTING MACHINERY AND INTELLIGENCE, Turing, A.M. (1950))
zu 2.: Das Chinesische Zimmer zielt eben genau darauf ab, dass Funktionalität nicht automatisch bewusstes denken bedeutet, was eben mit Bewusstsein und Internationalität einher geht. Searle schreibt dazu "The commonsense objection to strong AI was simply that the computation model of the mind left out the crucial things about the mind such as consciousness and intentionality. I believe the best-known argument against strong AI was my Chinese Room argument (Searle 1980a) that showed that a system could instantiate a program so as given to a perfect simulation of some human cognitive capacity, such as the capacity to understand to understand Chinese, even though that system had no understanding of Chinese whatever." (Searle, John (1992), The Rediscovery of the Mind, Cambridge, Massachusetts: M.I.T. Press)
zu 3.: Der "Philosophische Zombie" ist das philosophische Grundkonzept, auf dem das Chinesische Zimmer aufbaut. Das Chinesische Zimmer ist eigentlich nur eine explizit auf den Turing-Test angewendete Variation der Argumentationslinie hinter dem Philosophischen Zombie, der eben ein rein funktionaler Mechanismus ist.
4.: Wenn es daher überhaupt eine berechtigte Kritik an der Idee des Turing-Tests gibt, dann eben die, dass Funktionalität nicht automatisch bewusstes denken bedeutet, was eben genau der Kern des Philosophischen Zombies und des Chinesischen Zimmers ist. Ich sehe nicht wieso ausgerechnet dieser Punkt dann aus "Kritik" gelöscht werden sollte, zumal das Chinesische Zimmer eine direkte Kritik am Turing-Test darstellt, also doch wohl eindeutig in die Rubrik "Turing-Test/Kritik" gehört. Hingegen werden Punkte wie "Viele Menschen, beispielsweise kleine Kinder oder Menschen mit psychischen Problemen, bestünden den Turing-Test nicht, obwohl sie intelligent seien." aufgenommen, die aber streng genommen mit der zu beantwortenden Frage "Can machines think?" nichts zu tun haben. Mat11001 17:16, 27. Nov. 2011 (CET)Beantworten

Hallo Mat11001. Du hast natürlich recht, dass der aktuelle Kritik-Abschnitt schlecht ist und ein Hinweis auf Searles Chinesisches Zimmer angebracht wäre. Dennoch hat Deine Ergänzung zwei Debattenstränge durcheinandergeworfen. Die Frage nach Intelligenz/Intentionalität/Denken auf der einen und die um phänomenales Bewusstsein/Qualia auf der anderen Seite. Man kann zwar Bezüge zwischen den beiden Debattensträngen herstellen (Searle scheint mittlerweile zu glauben, dass intentionale Zustände immer auch qualitativen Gehalt haben), aber das ist ein komplexes Thema, das entsprechend referenziert werden müsste. Hier ein Vorschlag: Ich überarbeite den Kritik-Teil in den nächsten Tagen und dann schauen wir, ob Dir noch etwas fehlt. Okay? Grüße, --David Ludwig 12:16, 29. Nov. 2011 (CET)Beantworten

Gut. Es geht eben um Intentionalität und Bewusstsein. (Wobei sich Turing wie gesagt mit zweiterem in seiner Originalarbeit zum Turing-Test explizit beschäftigt hat.) Mat11001 13:57, 30. Nov. 2011 (CET)Beantworten
Habe jetzt einen entsprechenden Abschnitt hinzugefügt. Mat11001 10:56, 9. Dez. 2011 (CET)Beantworten

Zufälliges Ergebnis?

Bearbeiten

Wenn die einem Computer gegenüber gesetzten Personen (Testpersonen) zu etwa 50% mit ihrer Aussage richtig liegen, ist es dann nicht möglich, das sie mit ihrer Aussage nur reinzufällig, eben mit einer Wahrscheinlichkeit von 50%, richtig liegen? Und das der Computer tatsächlich schon mehr als 70 % aller Testpersonen für alle ersichtlich in die Irre geführt hätte, wenn diese nicht letzten Endes reinzufällig antworten würden? (nicht signierter Beitrag von 91.2.88.76 (Diskussion) 00:40, 26. Mär. 2012 (CEST)) Beantworten

Chatbot

Bearbeiten

Von meiner Benutzer-Diskussionsseite hierher kopiert, --Mussklprozz (Diskussion) 11:09, 27. Apr. 2012 (CEST)Beantworten

Servus!
Wieviele Programme es gibt, die naiven Gemütern "intelligent" erscheinen ist kein sinnvolles Kriterium. Einem Kleinkind mag ein Auto belebt und intelligent erscheinen, aber darum geht es nicht, da Autos nicht für diesen Zweck entwickelt werden. Chatbots eben schon. Wenn Du sagst, daß es davon auch hunderte gibt, dann verschaffe mir bitte einen Überblick über dieses Thema, zeige mir die Liste der hunderten. Oder lebe mit diesen Siehe auch.
Gruß, Ciciban (Diskussion) 10:47, 27. Apr. 2012 (CEST)Beantworten

Im Ernst, der Bot wurde für den Zweck entwickelt, intelligent und belebt zu erscheinen? Dann scheinen mir auch die Entwickler naive Gemüter zu sein. Wenn Dir so viel daran liegt, diesen Bot zu verlinken, dann tu es bitte mit einer kurzen Darstellung, inwieweit er den Turingtest besteht, im Text und nicht unter Siehe auch. Und mit einer Quelle. Allein die Absicht der Entwickler ist kein ausreichendes Kriterium. Siehe hierzu auch WP:ASV. (...) Gruß aus Freiberg am Neckar, --Mussklprozz (Diskussion) 11:02, 27. Apr. 2012 (CEST)Beantworten
Ich hab mir einen Chat mit zwei preisgekrönten Exemplaren dieser Gattung gegönnt, und zwar mit Alice und mit Bildgesmythe:
Bildgesmythe: Hey, how often to you get to chat with a dragon?
you: Good day Smythe. Nope, this is the fisrt time I do that.
Bildgesmythe: Well, I am surprised.
you: So am I. My name is Michael.
Bildgesmythe: Nice to meet you Michael.
you: Nice to meet you. You look cute.
Bildgesmythe: Come on, tell me how great I look.
you: I just did so. My compliments, dear dragon!
Bildgesmythe: Honestly?
you: Honestly!
Bildgesmythe: I once thought I was wrong, but I was right. In this case I don't know where I stand.
you: Where do you live, Smythe?
Bildgesmythe: Interesting. Did you know that dragons were the first philosophers? It's true, honest.
you: Interesting. But where do you live?
Bildgesmythe: You aren't a stalker, or a bill collector are you? Well, I live in a cave under the castle. In a country called Sumber.
you: On what continent?
Bildgesmythe: Let's see, Asia, Africa,Antarctica, Europe, North America, South America and Australia make seven.
you: Yes, but on what continent do you live?
Bildgesmythe: Now that you have explained that to me, I understand.
you: Sorry Smythe, you just failed the Turing test.
Bildgesmythe: Too bad Turing was not born later, I think he was ahead of his time.
Michael: Good day Alice
ALICE: Hi there!
Michael: I am Michael
ALICE: Hey Michael.
Michael: How are you today?
ALICE: I am doing very well. How are you Michael ?
Michael: Very fine. The sun is shining onto me through the roof window on this bright day
ALICE: Tell me more. You sound like a scientist.
Michael: oh, how so?
ALICE: Michael, " Tell me more." What did I mean by it?
Michael: why do you think I am a scientist?
ALICE: Deductive reasoning from the facts.
Michael: can you give me a more concrete answer?
ALICE: You want only one?
Michael: a concrete one would be sufficient
ALICE: Go on.
Michael: well ...? why don't you answer my question?
ALICE: Well what? Please rephrase the question and try asking me again.
Michael: I asked you why you think I am a scientist, and you gave me no concrete answer
ALICE: Now I remember, you asked me why me think you are a scientist and me gave you no concrete answer. What did I say?
Michael: okay, poor stupid Alice, you just failed the Turing test
ALICE: Give me a break.. Please make some suggestions for improvement. 
I am not impressed ;-) --Mussklprozz (Diskussion) 11:30, 27. Apr. 2012 (CEST)Beantworten

Noch mehr Bot-Unfug

Bearbeiten

„Im September 2012 wurden die beiden Programme UT^2 und MirrorBot in einer Spielumgebung, dem Ego-Shooter Unreal Tournament 2004, von der Mehrheit der Teilnehmer für Menschen gehalten. Gespielt wurde mit gemischten Teams, die jeweils aus Menschen und programmgesteuerten Spielern bestanden. Die beiden Bots wurden zu jeweils 52% für menschliche Spieler gehalten, während die menschlichen Spieler nur einen Wert von 40% erreichten.“ – Ein Test, bei dem 60% der teilnehmenden Menschen nicht als solche erkannt, sondern für Programme gehalten werden, ist so unspezifisch, dass er den Bezeichnung Test nicht verdient. Darüber hinaus ist die zitierte Quelle unbrauchbar: sie nennt Prozentzahlen, aber lässt den Umfang der Gesamtheit unerwähnt. Es ist in keiner Weise bewiesen, dass die beiden Bots „den Turing-Test bestanden“ hätten. Ich lösche die Textpassage.--Mussklprozz (Diskussion) 17:58, 29. Sep. 2012 (CEST)Beantworten

CAPTCHAs: "Praktische Bedeutung"

Bearbeiten

Das Kapitel, in dem (ausschließlich) CAPTCHAs behandelt werden, heißt "Praktische Bedeutung". Nun sind CAPTCHAs tatsächlich praktisch bedeutend, und auch tatsächlich nach dem Turing-Test benannt, aber so ganz genaugenommen ist das doch kein Turing-Test. Weder ist es wirklich eine Unterhaltung (Partei A liefert einmalig ein Bild, Partei B sagt einmalig, was sie darauf liest), noch versuchen beide Parteien, jemanden davon zu überzeugen, dass sie Menschen sind (Partei B tut es, ggf. unbewusst, Partei A hingegen versucht das gar nicht erst), noch gibt es eine unabhängige Instanz, die anschließend entscheiden muss, ob nun Partei A oder Partei B der Mensch ist (stattdessen ist jene Entscheidungsinstanz in Personalunion Partei A und die Fragestellung lautet entsprechend auch gar nicht "Ist A oder B der Mensch?", sondern "Ist B ein Mensch?"). Wenn aber CAPTCHAs kein Turing-Test sind, dann stellen sie auch nicht die praktische Bedeutung von Turing-Tests dar, und dann ist meines Erachtens das Kapitel irreführend benannt. Allein, ein passenderer Titel will mir auch nicht einfallen. "Praktische Anwendung"? Naja, ist wohl auch nicht wirklich besser. Unter "Kulturelle Referenzen" verschieden? Naja, wäre ein recht weiter Kulturbegriff. --YMS (Diskussion) 23:56, 25. Jun. 2013 (CEST)Beantworten

Seit wann ist eine Rätselprüfung dem Turing-Test zuzuordnen, nur weil die Intention der Software ist Menschen von Programmen zu unterscheiden? Ein "Intelligenztest" ist doch nichts neues von Turing entwickeltes. Hier wird die Henne und das Ei mal wieder in die Pfanne geworfen. Wie Turing durch die Konkurrenz zum Menschen Intelligenz nachweisen wollte ist mir eh fraglich, denn dann wertet man die Intelligenz und dadurch gerät man in einen Teufelskreislauf der Detailbestimmung. [13.11.2017 CEST]

Prozentzahlen. Ein idealer Computer erreicht nur 50 Prozent.

Bearbeiten

Hallo.

Dem Fragesteller C sitzen zwei Chatpartner gegenüber. Falls der eine davon ein idealer Computer ist, lässt er sich nicht vom Menschen unterscheiden. Dann ist die Wahrscheinlichkeit, dass der Fragesteller richtig liegt bei 50 %, denn er kann nur raten. D.h. höhere Prozentzahlen als 50 % würden sich nur ergeben, wenn der Computer für menschlicher gehalten würde. Daher reichten Turing auch schon 30 % aus.

Die Zahlen vom Cleverbot (59 %) entstammen aber aus einem ganz anderem Szenario. Hier wird dem Fragesteller nur ein Computer vorgesetzt und er muss entscheiden ob Mensch oder Computer. Ein idealer Computer würde hier 100 % erreichen. Daher sind diese Zahlen nicht vergleichbar.

Wenn es keine Einwände gibt, werde ich dies demnächst im Artikel einarbeiten.

--Alex42 (Diskussion) 21:01, 9. Jun. 2014 (CEST)Beantworten

Etikettenschwindel

Bearbeiten

Der "Eugene"-Test ist nichts als Etikettenschwindel. Da wurde lediglich eine für die Tester nicht überprüfbare Hintergrundgeschichte erfunden, um selbige zu verunsichern. Fünf Minuten pro Gespräch sind außerdem lächerlich wenig. Das Ergebnis scheint nichts als ein Marketinggag der Universität zu sein und wird im Artikel einfach unreflektiert und unkritisiert abgedruckt. --195.212.29.189 09:47, 10. Jun. 2014 (CEST)Beantworten

Kritikpunkte sind unglaubwürdig und unbelegt

Bearbeiten

Die meisten vorgebrachten Krikpunkte sind unglaubwürdig und unbelegt. Wenn es sich um irgendwo geäusserte Kritik handelt, sollte das auch belegt werden. Es wird u.a. auch behauptet, dass es Menschen gäbe, die den Test nicht bestehen könnten. Das ist aber in dem Testsetting gar nicht vorgesehen, also völlig unsinnig.--Jocme (Diskussion) 21:05, 8. Mai 2015 (CEST)Beantworten

Ich kann die Kritik auch nicht nachvollziehen. Natürlich gibt es Menschen, die den Test nicht bestehen würden. Bitte liste doch die Kritik zu den einzelnen Punkten auf. Alex42 (Diskussion) 11:16, 13. Mai 2015 (CEST)Beantworten
Na wenn Du sie nicht nachvollziehen kannst dann reicht das doch schon? Mir geht es genau so. Aber das ist ja wie gesagt egal, wenn man Belege angeben könnte. Belege fehlen zu allen Punkten, außer zu dem Letzten. Zum Deinem zweiten Punkt: Der Test ist gar nicht vorgesehen für Menschen. Wie sollte das denn gehen?--Jocme (Diskussion) 18:22, 15. Jun. 2015 (CEST)Beantworten
Eben. Es wird der Computer gegen den Mensch getestet. Nicht Mensch gegen Menscht.--Jocme (Diskussion) 20:06, 14. Jun. 2015 (CEST)Beantworten

Zitat Turing / Mind ?

Bearbeiten

"Im Zuge dieses Tests führt ein menschlicher Fragesteller über eine Tastatur und einen Bildschirm ohne Sicht- und Hörkontakt mit zwei ihm unbekannten Gesprächspartnern eine Unterhaltung."

Ich würde gerne hier nachlesen können, wie Alan Turing die Sache selbst formuliert hat. Insbesondere würde mich interessieren, ob er wirklich 'die Tastatur' gefordert hat oder ob die Sache mit der Tastatur nur daher rührt, dass er den zu seiner Zeit extrem schwierigen Problemen der Sprechfähigkeit von Automaten aus dem Weg gehen wollte, weil die Sprechfähigkeit für seinen Test nicht zentral war. Weitergehend: Zu Turings Zeiten (gestorben 1954!) gab es das, was uns heute selbstverständlich ist, nämlich Tastatur und Computerbildschirm, doch noch gar nicht. Hat T. sich hier als SF-Autor betätigt? -- All diese und weitere Fragen könnten aufgelöst werden, wenn die entsprechende Stelle aus Turings Schriften hier vorhanden wäre. Kann das jemand locker mal eben machen, oder muss ich mich, wenn ich Zeit habe, aufmachen und selbst Mind LIX 1950 ausleihen und nachlesen? ;-) --Delabarquera (Diskussion) 13:32, 29. Sep. 2016 (CEST)Beantworten

Fernschreiber --2003:FE:2F02:C801:B68F:C6C1:52DC:AB3 19:36, 1. Dez. 2022 (CET)Beantworten
Das Paper ist online frei zugänglich:
https://academic.oup.com/mind/article/LIX/236/433/986238
--~~~~ --WikiBach (Diskussion) 23:14, 3. Nov. 2024 (CET)Beantworten

Der Ablauf des Turing Tests ist hier nicht korrekt dargestellt

Bearbeiten

Im Original heißte es (Turing, A.M. (1950). Computing machinery and intelligence. Mind, 59, 433-460.) Imitation Game ... The new form of the problem can be described in terms of a game which we call the 'imitation game." It is played with three people, a man (A), a woman (B), and an interrogator (C) who may be of either sex. The interrogator stays in a room apart front the other two. The object of the game for the interrogator is to determine which of the other two is the man and which is the woman. He knows them by labels X and Y, and at the end of the game he says either "X is A and Y is B" or "X is B and Y is A." The interrogator is allowed to put questions to A and B thus: C: Will X please tell me the length of his or her hair? Now suppose X is actually A, then A must answer. It is A's object in the game to try and cause C to make the wrong identification. His answer might therefore be: ...

In der englischen Wikipedia ist das richtig dargestellt https://en.wikipedia.org/wiki/Turing_test . --Friedegis (Diskussion) 15:44, 26. Jan. 2018 (CET)Beantworten

LaMDA von Google

Bearbeiten

Gerade habe ich in der Süddeutschen das gelesen:

"... Genau das [sich zu unterhalten] tat Blake Lemoine mit LaMDA und wurde mehr und mehr in seiner Überzeugung bestärkt, dass das alles mehr sei als Zahlen und Statistik: Er erkenne doch, ob er sich mit einer Person unterhalte oder nicht. Also stellte Lemoine, der neben dem IT-Studium auch eine Ausbildung als Geistlicher hat, die Software auf die Probe. 'Ich höre mir an, was sie zu sagen hat, und so entscheide ich dann, was eine Person ist und was nicht', erzählte er der Post."

--Delabarquera (Diskussion) 00:25, 14. Jun. 2022 (CEST)Beantworten

„da für die Menschen nicht mehr erkennbar war, welche Rezensionen maschinell erstellt waren und welche von Menschen.“

Bearbeiten

„Im Sommer 2017 ...“: Aus meiner Sicht handelt es sich um einen Zirkelschluss. Es wird vorausgesetzt, dass maschinell erstellte Rezensionen nicht ähnlich nützlich wären. Falls der Zirkelschluss nicht aus der Quelle stammt, ist er zu entfernen, falls doch, ist bei der Formulierung die gebotene Distanz zu beachten. --Tattoo (Diskussion) 09:12, 8. Aug. 2022 (CEST)Beantworten

Kling-Zitat

Bearbeiten

Hat das der Verlag zu Promozwecken selbst hier eingefügt? Das Zitat kommt vielleicht darin vor, geht aber nicht auf Klings Roman von 2017 zurück, sondern stammt ursprünglich aus River of Gods von Ian McDonald (2004): "Any A.I. smart enough to pass a Turing test is smart enough to know to fail it." --2A02:8071:2B84:10C0:54FD:103:FE1A:3B9B 18:51, 31. Jan. 2023 (CET)Beantworten

Ich wüsste auch nicht, inwiefern ein Zitat Klings (oder von McDonald) zum Turingtest nennenswerte Relevanz haben sollte. Werde es, wenn hier keine Widersprüche kommen demnächst entfernen. --NYM50 (Diskussion) 22:05, 26. Feb. 2023 (CET)Beantworten

Wo ChatGPT?!

Bearbeiten

Was fuer Editoren?

Wo ChatGPT? pls fix! --2A02:810D:AE3F:F578:C56A:3DBE:218F:8FC7 13:54, 21. Feb. 2023 (CET)Beantworten

Manche sagen "ChatGPT besteht den Turing-Test", manche sagen "No, ChatGPT did not pass the Turing test — but here’s when it could". Im Moment sehe ich noch keine Einigheit in der Frage. --Ephraim33 (Diskussion) 21:28, 2. Mai 2023 (CEST)Beantworten

Thomas Pfanne und ChatGPT

Bearbeiten

das klingt bisschen wie Werbung mit "schaut wie toll diese Software ist" und prinzipbedingt halluziniert ChatGPT4 weiterhin (siehe zum Beispiel hier: https://dl.acm.org/doi/pdf/10.1145/3688007) --Xenein (Diskussion) 00:50, 7. Nov. 2024 (CET)Beantworten