Théorie de l’information fausse de Stephen Meyer


Original: http://www.talkreason.org/articles/stephen-meyers.cfm

 

Par Jeffrey Shallit

Publié le 18 Janvier 2010

Il ya quelques mois, j’ai terminé une première lecture du nouveau livre de Stephen Meyer, Signature dans la cellule. Il a été très lent va car il ya tellement de mal à cela, et j’ai essayé de prendre des notes sur tout ce qui m’a frappé.

Deux choses m’ont frappé comme je l’ai lu: d’abord, sa malhonnêteté essentiel, et la seconde, de graves malentendus de Meyer de la théorie de l’information. Je vais consacrer un poste à de nombreux mispresentations du livre l’autre jour, et se concentrer sur la théorie de l’information d’aujourd’hui. Je ne suis pas un biologiste, donc je vais laisser une discussion détaillée de ce qui ne va pas avec sa biologie à d’autres.

En Signature dans la cellule, Meyer parle de trois différents types d’informations: l’information de Shannon, l’information de Kolmogorov, et un troisième type qui a été inventé par les créationnistes d’identité et n’a pas de définition cohérente. Je vais appeler le troisième type “de l’information créationniste”.

La théorie de Shannon est une théorie probabiliste. Shannon assimilé informations avec une réduction de l’incertitude. Il a mesuré ce en calculant la réduction d’entropie, où l’entropie est donné par p-log2 et p est une probabilité. Par exemple, si je feuillette deux pièces derrière mon dos, vous ne savez pas comment l’un d’eux s’est avéré, afin que votre information sur les résultats est 0. Si je vous montre maintenant une pièce de monnaie, alors j’ai réduit votre incertitude sur les résultats par-log2 1/2 = 1 bit. Si je vous montre à la fois, j’ai introduit votre incertitude par log2 quart = 2 bits. La théorie de Shannon est totalement dépendant de probabilité; sans une distribution de probabilité bien définie sur les objets en cours de discussion, on ne peut pas calculer l’information de Shannon. Si on ne peut pas estimer de façon réaliste les probabilités, toute discussion de l’information pertinente est susceptible d’être faux.

En revanche, la théorie de Kolmogorov de l’information ne fait pas référence à des distributions de probabilité du tout. Il mesure les informations contenues dans une chaîne par rapport à un modèle de calcul universel. Grosso modo, l’information de Kolmogorov (ou complexité) d’une chaîne de symboles x est la longueur du plus court programme P et l’entrée I tel que P x sorties sur l’entrée I. Par exemple, la complexité de Kolmogorov d’une chaîne de bits de longueur n qui commence 01101010001 …, où peu i est 1 si i est un nombre premier et 0 sinon, est majorée par log2 n + C, où C est une constante qui tient compte de la taille du programme nécessaire pour tester la primalité.

Ni la théorie de Kolmogorov Shannon ni a rien à voir avec le sens. Par exemple, un message peut être très utile à l’homme, et ont encore peu d’information de Kolmogorov (comme la réponse «oui» à une proposition de mariage), et ont peu de sens pour les humains, mais des informations de Kolmogorov beaucoup (comme la plupart des chaînes obtenues de 1000 flips d’une pièce de monnaie).

Théories de deux Shannon et Kolmogorov sont bien fondées mathématiquement, et il ya des milliers de documents, eux et leurs conséquences expliquant. Shannon et de l’information de Kolmogorov obéissent à certaines lois bien connues, et les preuves ne sont pas dans le doute.

Informations créationniste, comme on le verra par Meyer, est un désordre incohérent. Une version de elle a été introduite par William Dembski, et critiqué en détail par Mark Perakh, Richard Wein, et bien d’autres (dont moi). Créationnistes de conception intelligents aiment à l’appeler “l’information spécifiée» ou «complexité spécifiée” et laisser entendre qu’il est largement acceptée par la communauté scientifique, mais ce n’est pas le cas. Il n’ya pas de papier dans la littérature scientifique qui donne une définition rigoureuse et cohérente de l’information créationniste; ni est-il utilisé dans les enquêtes scientifiques ou mathématiques.

Meyer ne définit pas rigoureusement non plus, mais il rejette les mesures bien établies de Shannon et de Kolmogorov, et souhaite utiliser une définition du sens commun de l’information à la place. À la page 86, il cite en l’approuvant la définition suivante de l’information: «un arrangement ou une chaîne de caractères, en particulier celui qui accomplit un résultat particulier ou exerce une fonction de communication”. Pour Meyer, une chaîne de symboles contient des informations créationniste que si elle communique ou exerce une fonction. Cependant, il ne dit pas explicitement comment beaucoup d’informations créationniste une telle chaîne a. Parfois, il semble suggérer la quantité d’informations créationniste est la longueur de la chaîne, et parfois il suggère qu’il est le logarithme négatif de la probabilité. Mais la probabilité par rapport à quoi? Son histoire de causalité, ou par rapport à une distribution uniforme de chaînes? La définition de Dembski a les mêmes défauts, mais la définition vague de Meyer introduit encore plus de problèmes. Voici quelques-uns.

Problème 1: il n’existe aucun moyen de communiquer univeral, si la définition de Meyer est totalement subjective. Si je reçois une chaîne de symboles qui dit “Uazekele?”, Je serais tenté de l’ignorer comme charabia, mais un haut-parleur lingala voudrais reconnaître immédiatement et répondre “Mbote”. Quantités en mathématiques et en sciences ne sont pas censés dépendre de qui les mesure.

Problème 2: Si nous mesurons informations créationniste uniquement par la longueur de la chaîne, alors nous pouvons sauvagement surestimer les informations contenues dans une chaîne par un rembourrage. Par exemple, considérons un programme informatique P qui réalise une fonction, et le programme identique P ‘, sauf n instructions pas-op ont été ajoutés. S’il utilise la mesure de la longueur, puis Meyer aurait à prétendre que P ‘a quelque chose comme n plus de bits d’information créationniste que P. (dans la théorie de Kolmogorov, par contraste, P’ aurait seulement au plus log ordre n plus de bits de informations.)

Problème 3: Si nous mesurons informations créationniste par rapport à la distribution uniforme sur les cordes, puis la demande de Meyer (voir ci-dessous) qui ne peut créer l’intelligence informations créationniste est incorrect. Par exemple, une transformation qui fait correspondre une chaîne à la même chaîne dupliquée 1000 fois crée une chaîne qui, par rapport à la distribution uniforme, est follement improbable; mais elle peut facilement être produite mécaniquement.

Problème 4: Si nous mesurons informations créationniste par rapport à l’histoire causale de l’objet en question, alors nous sommes obligés d’estimer ces probabilités. Mais depuis Meyer s’intéresse à l’application de sa méthode à des phénomènes qui sont actuellement mal compris, comme l’origine de la vie, tout ce qu’il a vraiment fait (depuis ses informations créationniste est parfois le logarithme négatif de la probabilité) est l’estimation de la probabilité de ces événements – – quelque chose que nous ne peut raisonnablement faire, précisément parce que nous ne savons pas que l’histoire de causalité. Dans ce cas, tous les discours sur «l’information» est un leurre; il pourrait aussi bien dire «Improbable – donc conçu!” et en finir avec elle.

Problème 5: Tous Meyer semble intéresse est de savoir si la chaîne communique quelque chose ou a une fonction. Mais certaines chaînes communiquent plus que d’autres, en dépit d’être de la même longueur, et certaines fonctions ne sont plus utiles que d’autres. La mesure de Meyer ne prend pas en compte. Une chaîne comme «Il va pleuvoir demain” et “Demain: 2,5 cm de pluie” ont la même longueur, mais clairement un est plus utile que l’autre. Meyer, il me semble, serait prétendre qu’ils ont la même quantité d’informations créationniste.

Problème 6: Pour Meyer, des informations dans un contexte de calcul peut se référer à, par exemple, un programme informatique qui réalise une fonction. Plus le programme, les informations plus créationniste. Considérons maintenant un très long programme qui a une erreur de syntaxe à une lettre, de sorte que le programme ne compilera pas. Un tel programme ne procède pas à une fonction, donc pour Meyer, il n’a pas d’informations du tout! Maintenant un seul «mutation ponctuelle” va magiquement créer beaucoup plus d’informations créationniste, quelque chose Meyer dit est impossible.

Même si nous acceptons la définition informelle de Meyer de l’information avec tous ses défauts, ses revendications concernant les informations sont tout simplement faux. Par exemple, il répète la revendication fausse suivante à plusieurs reprises:

p. 16: “Qu’est-ce que les humains reconnaissent que l’information provient certainement de la pensée – de l’activité humaine consciente ou intelligente … Notre expérience du monde montre que ce que nous reconnaissons que l’information reflète toujours l’activité avant de personnes conscientes et intelligentes.”

p. 291: “comme dans l’autre, de l’information dans un contexte de calcul ne pas magiquement se pose sans l’aide de l’informaticien.”

p. 341: «Il s’ensuit que l’esprit – conscient, agence rationnelle et intelligente – ce que les philosophes appellent« la causalité de l’agent », apparaît désormais comme la seule cause connue pour être capable de produire de grandes quantités d’informations spécifiées à partir d’un état ​​non-vivant.”

p. 343: «L’expérience montre que de grandes quantités de complexité spécifiée ou informations (notamment les codes et les langues) proviennent toujours d’une source intelligente – d’un esprit ou d’un agent personnel.”

p. 343: “… la fois l’expérience commune et des preuves expérimentales affirme conception intelligente comme une condition nécessaire (et la cause) de l’information …”

p. 376: “. Nous ne sommes pas ignorants de la façon dont l’information provient Nous savons par expérience que les agents intelligents conscients peuvent créer des séquences et des systèmes d’information.”

p. 376: “L’expérience enseigne que chaque fois que de grandes quantités de complexité ou l’information précisée sont présents dans un artefact ou d’une entité dont l’histoire causale est connu, l’intelligence toujours créative – conception intelligente – a joué un rôle dans l’origine de cette entité.”

p. 396: “Comme indiqué précédemment, que je présente la preuve pour la conception intelligente, les critiques ne cherchent généralement pas à contester mes affirmations empiriques spécifiques Ils ne contestent pas que l’ADN contient des informations précises, ou que ce type d’information vient toujours d’un esprit.. .. ”

J’ai simple contre-exemple à toutes ces revendications: prévisions météorologiques. Les météorologues recueillent d’énormes quantités de données du monde naturel: température, pression, vitesse du vent, direction du vent, etc, et traitent ces données pour produire des prévisions météorologiques précises. Donc, l’information qu’ils recueillent est «déterminée» (en ce qu’il nous dit s’il faut apporter un parapluie le matin), et bien des centaines, sinon des milliers, de ces éléments d’information sont nécessaires pour faire une prévision précise. Mais ces éléments d’information ne provient pas d’un esprit – à moins Meyer veut prétendre que certains être intelligent (disons Zeus) est de contrôler la météo. Peut-être intelligente conception créationnisme est juste polythéisme grec dans le déguisement!

Les allégations relatives à l’information sont au cœur de l’ouvrage de Meyer, mais, comme nous l’avons vu, beaucoup de ces revendications sont défectueux. Il ya beaucoup, beaucoup d’autres problèmes avec le livre de Meyer. Voici quelques-uns; J’aurais pu énuméré des dizaines d’autres.

p. 66 «Si la capacité de construction de ces structures et des traits était quelque chose comme un signal, une molécule qui n’a fait que répéter le même signal (par exemple, ATCG) encore et encore ne pouvait pas faire le travail. Au mieux, une telle molécule pourrait produire un seul trait. ”

Ce n’est pas clair du tout. Le nombre de répétitions constitue également des informations, et en effet, on trouve régulièrement que des nombres différents de répétitions conduisent à des fonctions différentes. Par exemple, la maladie de Huntington a été liée à des nombres différents de répétitions de CAG.

p. 91: “Pour cette raison, scienists d’information disent souvent que la théorie de Shannon mesure la« capacité de support d’information », par opposition à l’information fonctionnelle spécifiée ou” contenu de l’information, “d’une séquence de caractères ou de symboles.

Meyer semble assez confus ici. Le terme «capacité de support d’information” dans la théorie de Shannon se réfère à un canal, pas une séquence de caractères ou de symboles. Informations scientifiques ne parlent pas de «renseignements fonctionnellement déterminé» à tous, et ils ne l’assimilent à «contenu de l’information”.

p. 106: (il oppose deux numéros différents, l’un choisi au hasard, et qui atteint une personne) “Ainsi, le nombre de Smith contient des informations spécifiques ou des informations fonctionnelles, tandis que Jones ne fait pas; numéro de Smith a contenu de l’information, alors que le nombre de Jones ne dispose que d’informations capacité (ou l’information de Shannon) portant. ”

C’est du charabia pur. Informations scientifiques ne parlent pas de “renseignements visés» ou «information fonctionnelle”, et comme je l’ai souligné, “l’information-capacité de charge» se réfère à un canal, pas une chaîne de chiffres.

p. 106: «Le contraire d’une séquence complexe est une séquence très ordonnée comme ABCABCABCABC, dans lequel les personnages ou des constituants de répéter encore et encore en raison d’une règle fondamentale, algorithme, ou loi générale.”

C’est une idée fausse commune au sujet de la complexité. S’il est vrai que dans une chaîne avec une faible complexité de Kolmogorov, il ya une règle sous-jacente, il n’est pas vrai que les “caractères ou de leurs constituants” doivent “répéter encore et encore”. Par exemple, la chaîne de longueur n donnant un 1 ou 0 selon que i est un nombre premier (pour i de 1 à n) a une faible complexité de Kolmogorov, mais ne “répète encore et encore” pas.

p. 201 «Construire une cellule vivante non seulement nécessite des informations précises, il nécessite une grande quantité de celui-ci – et la probabilité d’une telle quantité de renseignements précis découlant par hasard est” extrêmement faible “.

Affirmation pure. «Informations divulgué” n’est pas rigoureusement défini. Combien d’informations spécifiée est là dans une tornade? Une roche? La disposition des éléments planétaires?

p. 258 “Si un processus est assez ordonnée être décrit par une loi, il n’a pas, par définition, produire des événements assez complexes pour transmettre des informations.”

Faux. Nous parlons tout le temps sur les lois statistiques, telles que la «loi des grands nombres». Processus avec une composante aléatoire, comme mutation + sélection, peuvent en effet générer des résultats et des informations complexes.

p. 293: “Voici ma version de la loi de conservation de l’information:« Dans un contexte non biologique, la quantité d’informations spécifié initialement présent dans un système Si, seront généralement égales ou supérieures à la teneur de l’information spécifiée du système final, Sf “Ce. règle admet deux exceptions près. Premièrement, le contenu de l’information de l’état final peut dépasser celle de l’état initial, Si, si agents intelligents ont choisi d’actualiser certains états potentiels tout en excluant d’autres, augmentant ainsi le contenu de l’information spécifiée du système. Deuxième , le contenu de l’information du système final peut être supérieure à celle du système initial si les processus aléatoires, ont, par hasard, l’augmentation de la teneur en informations spécifiques du système. dans ce dernier cas, l’augmentation potentielle de la teneur de l’information du système est limitée par les «ressources probabilistes” disponibles pour le système “.

Tout à fait risible. Le mot de la belette “général” signifie qu’il ne peut rejeter les exceptions quand elles sont présentées. Et que veut dire «dans un contexte non biologique” signifie? Comment ne biologie magie réussi à violer cette «loi»? Si les gens sont des agents intelligents, ils sont aussi des assemblages de matière et d’énergie. Comment font-ils gérer magie pour accroître l’information?

p. 337 «Ni ordinateurs par eux-mêmes, ni les processus de sélection et de mutation que les algorithmes informatiques simulent peuvent produire de grandes quantités d’informations nouvelles, du moins pas moins un grand effectif initial de l’information est fournie.”

Affirmation pure. «Informations roman” n’est pas défini. Meyer ignore complètement le grand domaine de recherche de la vie artificielle, qui réalise régulièrement ce qu’il demande est impossible. Les noms John Koza, Thomas Ray, Karl Sims, et le terme «vie artificielle» n’apparaissent nulle part dans l’index du livre.

p. 357:. ». Dembski a conçu un test pour distinguer ces deux types de modèles Si les observateurs peuvent reconnaître, construire, identifier, décrire ou apttern sans observer l’événement qui illustre, puis le modèle est considéré comme indépendant de l’événement Si, toutefois, l’observateur ne peut pas reconnaître (ou n’a pas connaissance de) le modèle en dehors de l’observation de l’événement, l’événement ne se qualifie pas comme indépendant. ”

Et la revendication de Dembski avoir donné une définition significative de «l’indépendance» est fausse, comme le montre en détail dans mon papier avec Elsberry – pas référencé par Meyer.

p. 396: “Comme indiqué précédemment, que je présente la preuve pour la conception intelligente, les critiques ne cherchent généralement pas à contester mes affirmations empiriques spécifiques Ils ne contestent pas que l’ADN contient des informations précises, ou que ce type d’information vient toujours d’un esprit.. .. ”

Les critiques savent que «l’information spécifiée” est une charade, un terme choisi pour son importance, sans définition cohérente rigoureuse ou convenu façon de le mesurer. Les critiques savent que l’information est systématiquement d’autres sources, telles que les processus aléatoires. Mutation et de sélection font très bien.

En résumé, les allégations de Meyer sur les informations sont incohérentes dans les lieux et sauvagement mal dans d’autres. Les personnes qui ont souscrit à ce livre, de Thomas Nagel à Philippe Skell J. Scott Turner, accepté sans réserve les revendications de Meyer sur l’information et pas même laissant entendre qu’il pourrait être erroné, devraient avoir honte.

Comments are closed.