Des articles

2.S : Raisonnement logique (Résumé)


Définitions importantes

  • Énoncés logiquement équivalents, page 43
  • Inverse d'un énoncé conditionnel, page 44
  • Contrapositif d'un énoncé conditionnel, page 44
  • Ensembles égaux, page 55
  • Variables, page 54
  • Ensemble universel pour une variable, page 54
  • Constante, page 54
  • Prédicat, page 54
  • Phrase ouverte, page 54
  • Ensemble de vérité d'un prédicat, page 58
  • Quantificateur universel, page 63
  • Quantificateur existentiel, page 63
  • Ensemble vide, page 60
  • Contre-exemple, pages 66 et 69
  • Carré parfait, page 70
  • Nombre premier, page 78
  • Nombre composé, page 78

Théorèmes et résultats importants

Théorème 2.8. Équivalences logiques importantes. Pour les instructions (P) , (Q) et (R),

Les lois de De Morgan (urcorner (P wedge Q) equiv urcorner P vee urcorner Q)
(urcorner (P vee Q) equiv urcorner P wedge urcorner Q)

Énoncé conditionnel (P o Q equiv urcorner Q o urcorner P) (contrapositif)
(P o Q equiv urcorner P vee Q)
(urcorner (P o Q) equiv P coin urcorner Q)

Déclaration biconditionnelle ((P leftrightarrow Q) equiv (P o Q) wedge (Q o P))

Double négation (urcorner (urcorner P) equiv P)

Lois distributives (P vee (Q wedge R) equiv (P vee Q) wedge (P vee R))
(P wedge (Q vee R) equiv (P wedge Q) vee (P wedge R))

Conditionnels avec disjonctions (P o (Q vee R) equiv (P wedge urcorner Q) o R)
(P vee Q) o R equiv (P o R) wedge (Q o R))

Théorème 2.16. Négations d'énoncés quantifiés. Pour tout prédicat (P(x)),

(urcorner (forall x) [P(x)] equiv (exists x) [urcorner P(x)]), et
(urcorner (exists x) [P(x)] equiv (forall x) [urcorner P(x)])

Notation importante de la théorie des ensembles

NotationLa descriptionPage
(y dans A)(y) est un élément de l'ensemble (A).55
(z otin A)(z) n'est pas un élément de l'ensemble (A).55
{ }La méthode de la liste53
{(x in U | P(x))}Définir la notation du constructeur58

La logique unifiée : structure fondamentale de la raison humaine

Les principes newtoniens fournissent un modèle réduit pour étudier et comprendre la physique. L'ADN fournit un modèle réduit pour étudier et comprendre la biologie. Pour étudier et comprendre la raison humaine, La logique unifiée : structure fondamentale de la raison humaine propose un tel modèle.

La logique unifiée présente la logique unifiée, une caractérisation logique complète et entièrement intégrée de la structure profonde fondamentale de la raison humaine et des principes, ou lois, qui régissent son utilisation. La logique unifiée comprend ces trois logiques :

Les principes distinguent les caractéristiques superficielles de la raison de sa structure profonde.


5.2 Phrases alternatives et un « et » différent

Nous avons remarqué qu'en anglais, « mais » est une alternative à « et » et peut être traduit de la même manière dans notre logique propositionnelle. Il existe d'autres expressions qui ont un sens similaire : elles sont mieux traduites par des conjonctions, mais elles transmettent (en anglais) un sentiment de surprise ou d'échec des attentes. Par exemple, considérons la phrase suivante.

Même s'ils ont perdu la bataille, ils ont gagné la guerre.

Ici, "même si" semble faire le même travail que "mais". L'implication est qu'il est surprenant - que l'on puisse s'attendre à ce que s'ils perdent la bataille, ils perdent la guerre. Mais, comme nous l'avons déjà noté, nous ne capterons pas les attentes avec notre logique. Ainsi, nous prendrions cette phrase pour être suffisamment équivalente à :

Ils ont perdu la bataille et ils ont gagné la guerre.

À l'exception de "mais", il semble qu'en anglais il n'y ait pas d'autre mot qui soit une alternative à "et" qui signifie la même chose. Cependant, il existe de nombreuses façons d'impliquer une conjonction. Pour voir cela, considérez les phrases suivantes.

Tom, qui a remporté la course, a également remporté le championnat.

L'étoile phosphoreuse, que l'on voit le matin, est l'étoile du soir.

L'Étoile du Soir, appelée « Hesperus », est aussi l'Étoile du Matin.

Alors que Steve est grand, Tom ne l'est pas.

Les chiens sont des mammifères terrestres vertébrés.

Selon les éléments que nous considérons comme fondamentaux dans notre langage, ces phrases incluent toutes des conjonctions implicites. Ils sont équivalents aux phrases suivantes, par exemple :

Tom a remporté la course et Tom a remporté le championnat.

Le phosphore est l'étoile que nous voyons le matin et le phosphore est l'étoile du soir.

L'Étoile du Soir est appelée « Hesperus » et l'Étoile du Soir est l'Étoile du Matin.

Steve est grand et ce n'est pas le cas que Tom soit grand.

Les chiens sont des vertébrés et les chiens sont terrestres et les chiens sont des mammifères.

Ainsi, nous devons être sensibles aux phrases complexes qui sont des conjonctions mais qui n'utilisent pas "et" ou "mais" ou des expressions comme "même si".

Malheureusement, en anglais, il existe certaines utilisations de « et » qui ne sont pas des conjonctions. Il en va de même pour les termes équivalents dans certaines autres langues naturelles. Voici un exemple.

Rochester est entre Buffalo et Albany.

Le "et" dans cette phrase n'est pas une conjonction. Pour voir cela, notez que cette phrase n'est pas équivalente à la suivante :

Rochester est entre Buffalo et Rochester est entre Albany.

Cette phrase n'est même pas sémantiquement correcte. Que se passe-t-il dans la phrase originale ?

Le problème ici est que « est entre » est ce que nous appelons un « prédicat ». Nous apprendrons les prédicats au chapitre 11, mais ce que nous pouvons dire ici, c'est que certains prédicats prennent plusieurs noms pour former une phrase. En anglais, si un prédicat prend plus de deux noms, nous utilisons généralement le « et » pour combiner les noms décrits par ce prédicat. En revanche, la conjonction dans notre logique propositionnelle ne combine que des phrases. Donc, il faut dire qu'il y a des usages du « and » anglais qui ne sont pas équivalents à notre conjonction.

Cela pourrait être déroutant car parfois en anglais, nous mettons "et" entre les noms et il y a une conjonction implicite. Considérer:

Steve est plus âgé que Joe et Karen.

Superficiellement, cela semble avoir la même structure que « Rochester est entre Buffalo et Albany ». Mais cette phrase équivaut vraiment à :

Steve est plus âgé que Joe et Steve est plus âgé que Karen.

La différence, cependant, est qu'il doit y avoir trois choses pour que l'une soit entre les deux autres. Il suffit de deux choses pour que l'une soit plus âgée que l'autre. Ainsi, dans la phrase "Rochester est entre Buffalo et Albany", nous avons besoin des trois noms ("Rochester", "Buffalo" et "Albany) pour faire une seule phrase atomique appropriée avec "entre". Cela nous indique que le "et" est juste utilisé pour combiner ces noms, et non pour combiner des phrases implicites (puisqu'il ne peut y avoir de phrase implicite sur ce qui est "entre", en utilisant seulement deux ou un seul de ces noms).

Cela semble complexe. Ne désespérez pas cependant. L'utilisation de « et » pour identifier les noms utilisés par les prédicats est moins courante que « et » utilisé pour une conjonction. De plus, après avoir discuté des prédicats au chapitre 11, et après avoir pratiqué la traduction de différents types de phrases, la distinction entre ces utilisations de « et » deviendra facile à identifier dans presque tous les cas. En attendant, nous choisirons des exemples qui n'invitent pas à cette confusion.


2. Langue

Ici, nous développons les bases d'un langage formel, ou pour être précis, une classe de langages formels. Encore une fois, un langage formel est un ensemble de chaînes défini de manière récursive sur un alphabet fixe. Certains aspects des langues formelles correspondent ou ont des équivalents dans des langues naturelles comme l'anglais. Techniquement, cette &ldquorelation de contrepartie&rdquo ne fait pas partie du développement formel, mais nous la mentionnerons de temps en temps, pour motiver certaines des fonctionnalités et des résultats.

2.1 Blocs de construction

Nous commençons par des analogues de termes singuliers, éléments linguistiques dont la fonction est de désigner une personne ou un objet. Nous appelons ces termes. Nous supposons un stock de constantes individuelles. Ce sont des lettres minuscules, proches du début de l'alphabet romain, avec ou sans indices numériques :

Nous envisageons une infinité potentielle de constantes individuelles. Dans le système actuel, chaque constante est un caractère unique, et donc les constantes individuelles n'ont pas de syntaxe interne. Nous avons donc un alphabet infini. Cela pourrait être évité en prenant une constante comme (d_<22>), par exemple, composée de trois caractères, une minuscule &ldquo(d)&rdquo suivie d'une paire d'indices &ldquo2&rdquos.

Nous supposons également un stock de variables individuelles. Ce sont des lettres minuscules, proches de la fin de l'alphabet, avec ou sans indices numériques :

Dans le raisonnement mathématique ordinaire, il y a deux fonctions que les termes doivent remplir. Nous devons être capables de désigner des objets spécifiques, mais non spécifiés (ou arbitraires), et parfois nous devons exprimer une généralité. Dans notre système, nous utilisons des constantes dans le rôle de référence non spécifiée et des variables pour exprimer la généralité. Les deux utilisations sont récapitulées dans le traitement formel ci-dessous. Certains logiciens utilisent des symboles différents pour des objets non spécifiés (parfois appelés &ldquoparamètres individuels&rdquo) et des variables utilisées pour exprimer la généralité.

Les constantes et les variables sont les seuls termes de notre langage formel, donc tous nos termes sont simples, correspondant à des noms propres et à certaines utilisations de pronoms. On appelle un terme clos s'il n'est pas une variable. En général, nous utilisons (v) pour représenter des variables, et (t) pour représenter un terme fermé, une constante individuelle. Certains auteurs présentent également lettres de fonction, qui autorisent des termes complexes correspondant à : &ldquo(7+4)&rdquo et &ldquo la femme de Bill Clinton&rdquo, ou des termes complexes contenant des variables, comme &ldquo le père de (x)&rdquo et &ldquo(x/y)&rdquo . Les livres de logique destinés aux mathématiciens sont susceptibles de contenir des lettres de fonction, probablement en raison de la centralité des fonctions dans le discours mathématique. Les livres destinés à un public plus général (ou aux étudiants en philosophie), peuvent omettre les lettres de fonction, car cela simplifie la syntaxe et la théorie. Nous suivons ici ce dernier itinéraire. Il s'agit d'un exemple de compromis général entre la présentation d'un système avec des ressources expressives plus importantes, au prix d'une complexification de son traitement formel.

Pour chaque entier naturel (n), on introduit un stock de (n)-place lettres de prédicat. Ce sont des lettres majuscules au début ou au milieu de l'alphabet. Un exposant indique le nombre de places, et il peut y avoir ou non un indice. Par example,

sont des lettres de prédicat à trois places. Nous omettons souvent l'exposant, quand aucune confusion n'en résultera. Nous ajoutons également un symbole de prédicat spécial à deux places &ldquo(=)&rdquo pour l'identité.

Les lettres de prédicat de position zéro sont parfois appelées &ldquosentence letters&rdquo. Ils correspondent à des phrases libres dont la structure interne n'a pas d'importance. Les lettres de prédicat à une place, appelées &ldquomonadiques de prédicat&rdquo, correspondent à des éléments linguistiques dénotant des propriétés, comme &ldquoétant un homme&rdquo, &ldquoétant rouge&rdquo, ou &ldquoétant un nombre premier&rdquo. Les lettres de prédicat à deux places, appelées &ldquobiinary predicat letters&rdquo, correspondent à des éléments linguistiques désignant des relations binaires, comme &ldquois un parent de&rdquo ou &ldquois supérieur à&rdquo. Les lettres de prédicat à trois places correspondent à des relations à trois places, comme &ldquolies sur une ligne droite entre&rdquo. Etc.

le terminologie non logique de la langue se compose de ses constantes individuelles et de ses lettres de prédicat. Le symbole &ldquo(=)&rdquo, pour l'identité, n'est pas un symbole non logique. En considérant l'identité comme logique, nous la traitons explicitement dans le système déductif et dans la sémantique de la théorie des modèles. La plupart des auteurs font de même, mais il existe une certaine controverse sur la question (Quine [1986, chapitre 5]). Si (K) est un ensemble de constantes et de lettres de prédicat, alors nous donnons les bases d'un langage (LKe) construit sur cet ensemble de terminologie non logique. On peut l'appeler le langue de premier ordre avec identité sur (K). Un langage similaire qui n'a pas le symbole de l'identité (ou qui considère que l'identité n'est pas logique) peut être appelé (mathcal1K), le langue de premier ordre sans identité sur (K).

2.2 Formules atomiques

Si (V) est une lettre de prédicat (n)-place dans (K), et (t_1, ldots,t_n) sont des termes de (K), alors (Vt_1 ldots t_n) est un formule atomique de (LKe). Notez que les termes (t_1, ldots,t_n) n'ont pas besoin d'être distincts. Voici des exemples de formules atomiques :

[ P^4 xaab, C^1 x, C^1 a, D^0, A^3 abc. ]

Le dernier est un analogue d'une déclaration selon laquelle une certaine relation ((A)) existe entre trois objets ((a, b, c)). Si (t_1) et (t_2) sont des termes, alors (t_1 =t_2) est aussi une formule atomique de (LKe). Cela correspond à une affirmation que (t_1) est identique à (t_2).

Si une formule atomique n'a pas de variables, alors elle est appelée un phrase atomique. S'il a des variables, il est appelé ouvert. Dans la liste d'exemples ci-dessus, le premier et le deuxième sont ouverts, les autres sont des phrases.

2.3 Formules composées

Nous présentons maintenant les derniers éléments du lexique :

[ eg, amp, vee, ightarrow, forall, exists, (, ) ]

On donne une définition récursive d'un formule de (LKe):

  1. Toutes les formules atomiques de (LKe) sont des formules de (LKe).
  2. Si ( heta) est une formule de (LKe), alors ( eg heta).

Une formule correspondant à ( eg heta) dit donc que ce n'est pas le cas que ( heta). Le symbole &ldquo( eg)&rdquo est appelé &ldquonegation&rdquo et est un connecteur unaire.

L'esperluette &ldquo(amp)&rdquo correspond à l'anglais &ldquoand&rdquo (quand &ldquoand&rdquo est utilisé pour relier des phrases). Ainsi (( heta amp psi)) peut être lu &ldquo( heta) et (psi)&rdquo. La formule (( heta amp psi)) est appelée la &ldquoconjonction&rdquo de ( heta) et (psi).

Le symbole &ldquo(vee)&rdquo correspond à &ldquosoit &hellip ou &hellip ou les deux&rdquo, donc (( heta vee psi)) peut être lu &ldquo( heta) ou (psi)&rdquo . La formule (( heta vee psi)) est appelée la &ldquodisjonction&rdquo de ( heta) et (psi).

La flèche &ldquo( ightarrow)&rdquo correspond approximativement à &ldquo &hellip puis &hellip &rdquo, donc (( heta ightarrow psi)) peut se lire &ldquo ( heta) puis (psi)&rdquo ou &ldquo( heta) uniquement si (psi)&rdquo.

Les symboles &ldquo(amp)&rdquo, &ldquo(vee)&rdquo, et &ldquo( ightarrow)&rdquo sont appelés &ldquobinaires&rdquo, car ils servent à &ldquoconnecter&rdquo deux formules en une seule. Certains auteurs introduisent (( heta leftrightarrow psi)) comme abréviation de ((( heta ightarrow psi) amp(psi ightarrow heta))). Le symbole &ldquo(leftrightarrow)&rdquo est un analogue de la locution &ldquo et seulement si&rdquo.

Le symbole &ldquo(forall)&rdquo est appelé un quantificateur universel, et est un analogue de &ldquofor all&rdquo donc (forall v heta) peut être lu &ldquofor all (v, heta)&rdquo.

Le symbole &ldquo(existe)&rdquo est appelé un quantificateur existentiel, et est un analogue de &ldquothere existe&rdquo ou &ldquothere is&rdquo donc (existe v heta) peut être lu &ldquothere est un (v) tel que ( heta)&rdquo.

La clause (8) nous permet de faire des inductions sur la complexité des formules. Si une certaine propriété s'applique aux formules atomiques et est fermée selon les opérations présentées dans les clauses (2) et ndash (7), alors la propriété s'applique à toutes les formules. Voici un exemple simple :

Théorème 1. Chaque formule de (LKe) a le même nombre de parenthèses gauche et droite. De plus, chaque parenthèse gauche correspond à une parenthèse droite unique, qui se trouve à droite de la parenthèse gauche. De même, chaque parenthèse droite correspond à une parenthèse gauche unique, qui se trouve à gauche de la parenthèse droite donnée. Si une parenthèse se produit entre une paire de parenthèses appariées, alors sa contrainte se produit également dans cette paire appariée. En d'autres termes, les parenthèses qui apparaissent dans une paire appariée sont elles-mêmes appariées.

Preuve: Par la clause (8), chaque formule est construite à partir des formules atomiques en utilisant les clauses (2)&ndash(7). Les formules atomiques n'ont pas de parenthèses. Les parenthèses ne sont introduites que dans les clauses (3)&ndash(5), et chaque fois qu'elles sont introduites comme un ensemble apparié. Ainsi, à n'importe quelle étape de la construction d'une formule, les parenthèses sont appariées.

Nous définissons ensuite la notion d'occurrence d'une variable étant libre ou alors bondir dans une formule. Une variable qui suit immédiatement un quantificateur (comme dans &ldquo(forall x)&rdquo et &ldquo(existe y)&rdquo) n'est ni libre ni liée. Nous ne les considérons même pas comme des occurrences de la variable. Toutes les variables qui apparaissent dans une formule atomique sont libres. Si une variable apparaît libre (ou liée) dans ( heta) ou dans (psi), alors cette même occurrence est libre (ou liée) dans ( eg heta, ( heta amp psi ), ( heta vee psi)), et (( heta ightarrow psi)). C'est-à-dire que les connecteurs (unaires et binaires) ne changent pas l'état des variables qui s'y produisent. Toutes les occurrences de la variable (v) dans ( heta) sont liées dans (forall v heta) et (exists v heta). Quelconque libre les occurrences de (v) dans ( heta) sont liées par le quantificateur initial. Toutes les autres variables qui apparaissent dans ( heta) sont libres ou liées dans (forall v heta) et (exists v heta), comme elles le sont dans ( heta).

Par exemple, dans la formule ((forall)x(Axy (vee Bx) amp Bx)), les occurrences de &ldquo(x)&rdquo dans Axy et dans le premier (Bx) sont liés par le quantificateur. L'occurrence de &ldquo(y)&rdquo et la dernière occurrence de &ldquo(x)&rdquo sont libres. Dans (forall x(Ax ightarrow exists)xBx), le &ldquo(x)&rdquo dans (Ax) est lié par le quantificateur universel initial, tandis que l'autre occurrence de (x) est liée par le quantificateur existentiel. La syntaxe ci-dessus permet cette &ldquodouble-liaison&rdquo. Bien que cela ne crée aucune ambiguïté (voir ci-dessous), nous éviterons de telles formules, par souci de goût et de clarté.

La syntaxe permet également ce que l'on appelle la liaison vide, comme dans (forall)x(Bc). Ceux-ci aussi seront évités dans ce qui suit. Certains traitements de la logique excluent la liaison vide et la double liaison en termes de syntaxe.Cela simplifie certains des traitements ci-dessous et en complique d'autres.

Les variables libres correspondent aux espaces réservés, tandis que les variables liées sont utilisées pour exprimer la généralité. Si une formule n'a pas de variables libres, alors elle est appelée un phrase. Si une formule a des variables libres, elle est appelée ouvert.

2.4 Caractéristiques de la syntaxe

Avant d'aborder le système déductif et la sémantique, mentionnons quelques caractéristiques du langage, telles qu'elles ont été développées jusqu'à présent. Cela permet de faire le contraste entre les langues formelles et les langues naturelles comme l'anglais.

Nous supposons au départ que toutes les catégories sont disjointes. Par exemple, aucun connecteur n'est aussi un quantificateur ou une variable, et les termes non logiques ne sont pas aussi des parenthèses ou des connecteurs. De plus, les éléments de chaque catégorie sont distincts. Par exemple, le signe de disjonction ne fait pas double emploi en tant que symbole de négation, et peut-être plus important encore, aucun prédicat à deux places n'est aussi un prédicat à une place.

Une différence entre les langues naturelles comme l'anglais et les langues formelles comme (LKe) est que ces dernières ne sont censées avoir aucune ambiguïté. La politique selon laquelle les différentes catégories de symboles ne se chevauchent pas, et qu'aucun symbole n'a de double fonction, évite le genre d'ambiguïté, parfois appelée &ldquoequivocation&rdquo, qui se produit lorsqu'un seul mot a deux sens : &ldquoI&rsquoll vous rencontrer à la banque.&rdquo Mais il existe d'autres types d'ambiguïté. Considérez la phrase anglaise :

John est marié et Mary est célibataire ou Joe est fou.

Cela peut signifier que John est marié et que Mary est célibataire ou Joe est fou, ou bien cela peut signifier que John est marié et Mary est célibataire, ou bien Joe est fou. Une ambiguïté comme celle-ci, due à différentes manières d'analyser la même phrase, est parfois appelée un &ldquoamphiboly&rdquo. Si notre langage formel n'avait pas de parenthèses, il aurait des amphiboles. Par exemple, il y aurait une &ldquoformula&rdquo (A amp B vee) C. Est-ce censé être (((A amp B) vee C)), ou est-ce ((A amp(B vee C))) ? Les parenthèses résolvent ce qui serait une amphibole.

Peut-on être sûr qu'il n'y a pas d'autres amphiboles dans notre langue ? C'est-à-dire, pouvons-nous être sûrs que chaque formule de (LKe) ne peut être assemblée que d'une seule manière ? Notre prochaine tâche est de répondre à cette question.

Utilisons temporairement le terme &ldquounary marker&rdquo pour le symbole de négation (( eg)) ou un quantificateur suivi d'une variable (e.g., (forall x, exists z)).

Lemme 2. Chaque formule consiste en une chaîne de zéro ou plusieurs marqueurs unaires suivis soit d'une formule atomique, soit d'une formule produite à l'aide d'un connecteur binaire, via l'une des clauses (3)&ndash(5).

Preuve: On procède par induction sur la complexité de la formule ou, en d'autres termes, sur le nombre de règles de formation qui sont appliquées. Le lemme est clairement valable pour les formules atomiques. Soit (n) un nombre naturel, et supposons que le lemme soit valable pour toute formule construite à partir de (n) ou moins d'instances des clauses (2)&ndash(7). Soit ( heta) une formule construite à partir de (n+1) instances. Le lemme est vérifié si la dernière clause utilisée pour construire ( heta) était (3), (4) ou (5). Si la dernière clause utilisée pour construire ( heta) était (2), alors ( heta) est ( eg psi). Puisque (psi) a été construit avec (n) instances de la règle, le lemme est valable pour (psi) (par l'hypothèse d'induction), et donc pour ( heta). Un raisonnement similaire montre que le lemme est valable pour ( heta) si la dernière clause était (6) ou (7). Par la clause (8), cela épuise les cas, et donc le lemme est vrai pour ( heta), par récurrence.

Lemme 3. Si une formule ( heta) contient une parenthèse gauche, alors elle se termine par une parenthèse droite, qui correspond à la parenthèse la plus à gauche dans ( heta).

Preuve: Ici nous procédons également par induction sur le nombre d'instances de (2)&ndash(7) utilisées pour construire la formule. Clairement, le lemme est valable pour les formules atomiques, puisqu'elles n'ont pas de parenthèses. Supposons donc que le lemme soit vérifié pour les formules construites avec (n) ou moins d'instances de (2)&ndash(7), et supposons que ( heta) soit construit avec (n+1) instances. Si la dernière clause appliquée était (3)&ndash(5), alors le lemme est vérifié puisque ( heta) lui-même commence par une parenthèse gauche et se termine par la parenthèse droite correspondante. Si la dernière clause appliquée était (2), alors ( heta) est ( eg psi), et l'hypothèse d'induction s'applique à (psi). De même, si la dernière clause appliquée était (6) ou (7), alors ( heta) consiste en un quantificateur, une variable et une formule à laquelle on peut appliquer l'hypothèse d'induction. Il s'ensuit que le lemme est valable pour ( heta).

Lemme 4. Chaque formule contient au moins une formule atomique.

La preuve procède par induction sur le nombre d'instances de (2)&ndash(7) utilisées pour construire la formule, et nous la laissons en exercice.

Théorème 5. Soit (alpha, eta) des suites de caractères non vides de notre alphabet, telles que (alpha eta) (i.e. (alpha) suivi de (eta)) soit une formule. Alors (alpha) est ne pas une formule.

Preuve: D'après le théorème 1 et le lemme 3, si (alpha) contient une parenthèse gauche, alors la parenthèse droite qui correspond à la parenthèse la plus à gauche dans (alpha eta) vient à la fin de (alpha eta ), et donc la parenthèse droite correspondante est dans (eta). Ainsi, (alpha) a plus de parenthèses gauches que de parenthèses droites. Par le théorème (1, alpha) n'est pas une formule. Supposons maintenant que (alpha) ne contienne aucune parenthèse gauche. Par lemme (2, alpha eta) consiste en une chaîne de zéro ou plusieurs marqueurs unaires suivis soit d'une formule atomique, soit d'une formule produite à l'aide d'un connecteur binaire, via l'une des clauses (3)&ndash(5). Si cette dernière formule a été produite via l'une des clauses (3)&ndash(5), alors elle commence par une parenthèse gauche. Comme (alpha) ne contient aucune parenthèse, il doit s'agir d'une chaîne de marqueurs unaires. Mais alors (alpha) ne contient aucune formule atomique, et donc par lemme (4, alpha) n'est pas une formule. Le seul cas restant est celui où (alpha eta) consiste en une chaîne de marqueurs unaires suivis d'une formule atomique, soit sous la forme (t_1 =t_2) soit (Pt_1 ldots t_n). Encore une fois, si (alpha) n'était constitué que de marqueurs unaires, ce ne serait pas une formule, et donc (alpha) doit être constitué des marqueurs unaires commençant par (alpha eta), suivis de soit (t_1) par lui-même, (t_1 =) par lui-même, ou la lettre de prédicat (P), et peut-être certains (mais pas tous) des termes (t_1, ldots,t_n). Dans les deux premiers cas, (alpha) ne contient pas de formule atomique, par la politique que les catégories ne se chevauchent pas. Puisque (P) est une lettre de prédicat (n)-place, par la politique que les lettres de prédicat sont distinctes, (P) n'est pas une lettre de prédicat (m)-place pour aucun (m e n). Ainsi, la partie de (alpha) qui consiste en (P) suivi des termes n'est pas une formule atomique. Dans tous ces cas, alors, (alpha) ne contient pas de formule atomique. Par lemme (4, alpha) n'est pas une formule.

Nous sommes enfin en mesure de montrer qu'il n'y a pas d'amphibole dans notre langue.

Théorème 6. Soit ( heta) une formule quelconque de (LKe). Si ( heta) n'est pas atomique, alors il y a une et une seule parmi (2)&ndash(7) qui était la dernière clause appliquée à la construction ( heta). C'est-à-dire que ( heta) n'a pas pu être produit par deux clauses différentes. De plus, aucune formule produite par les clauses (2)&ndash(7) n'est atomique.

Preuve: D'après la clause (8), soit ( heta) est atomique, soit il a été produit par l'une des clauses (2)&ndash(7). Ainsi, le premier symbole dans ( heta) doit être soit une lettre de prédicat, un terme, un marqueur unaire ou une parenthèse gauche. Si le premier symbole dans ( heta) est une lettre ou un terme de prédicat, alors ( heta) est atomique. Dans ce cas, ( heta) n'a été produit par aucun de (2)&ndash(7), puisque toutes ces formules commencent par autre chose qu'une lettre ou un terme de prédicat. Si le premier symbole dans ( heta) est un signe de négation &ldquo( eg)&rdquo, alors ( heta) a été produit par la clause (2), et non par aucune autre clause (puisque les autres clauses produire des formules qui commencent soit par un quantificateur, soit par une parenthèse gauche). De même, si ( heta) commence par un quantificateur universel, alors il a été produit par la clause (6), et non par aucune autre clause, et si ( heta) commence par un quantificateur existentiel, alors il a été produit par la clause (7), et non par toute autre clause. Le seul cas restant est celui où ( heta) commence par une parenthèse gauche. Dans ce cas, il doit avoir été produit par l'un des (3)&ndash(5), et non par une autre clause. Nous devons seulement exclure la possibilité que ( heta) ait été produit par plus d'un (3)&ndash(5). Pour prendre un exemple, supposons que ( heta) a été produit par (3) et (4). Alors ( heta) est ((psi_1 amp psi_2)) et ( heta) est aussi ((psi_3 vee psi_4)), où (psi_1, psi_2 , psi_3) et (psi_4) sont eux-mêmes des formules. Autrement dit, ((psi_1 amp psi_2)) est la même formule que ((psi_3 vee psi_4)). Par le théorème (5, psi_1) ne peut pas être une partie propre de (psi_3), ni (psi_3) être une partie propre de (psi_1). Donc (psi_1) doit être la même formule que (psi_3). Mais alors &ldquo(amp)&rdquo doit être le même symbole que &ldquo(vee)&rdquo, et cela contredit la politique selon laquelle tous les symboles sont différents. Donc ( heta) n'a pas été produit à la fois par la clause (3) et la clause (4). Un raisonnement similaire prend en charge les autres combinaisons.

Ce résultat est parfois appelé &ldquounique lisibilité&rdquo. Il montre que chaque formule est produite à partir des formules atomiques via les différentes clauses d'une seule manière. Si ( heta) a été produit par la clause (2), alors son connecteur principal est l'initiale &ldquo( eg)&rdquo. Si ( heta) a été produit par les clauses (3), (4) ou (5), alors son connecteur principal est le &ldquo(amp)&rdquo, &ldquo(vee)&rdquo, ou &ldquo( ightarrow)&rdquo introduit, respectivement. Si ( heta) a été produit par les clauses (6) ou (7), alors son connecteur principal est le quantificateur initial. Nous nous excusons pour les détails fastidieux. Nous les avons inclus pour indiquer le niveau de précision et de rigueur de la syntaxe.


Discussion

Alors que les nourrissons ont accès à une grande quantité d'informations via la perception ou à partir de leurs souvenirs stockés, d'autres informations tout aussi importantes peuvent être hors de portée de ces facultés. Le raisonnement logique peut ouvrir une voie complémentaire à des faits qui ne sont pas accessibles à partir de la perception et de la mémoire seules : former des attentes par déduction logique, comme dans le cas de l'élimination des alternatives. Par conséquent, le raisonnement logique garantit un moyen d'acquérir des connaissances en révélant des preuves autrement non disponibles. C'était, cependant, une question empirique ouverte de savoir si cette voie vers la connaissance est disponible pour les nourrissons humains préverbaux. Dans quatre expériences, nous fournissons des preuves positives à cette requête.

On pourrait soutenir que les conclusions des inférences disjonctives préverbales pourraient être sévèrement limitées dans leur intégrabilité avec d'autres mécanismes de calcul. Ainsi, ils pourraient manquer de la productivité inférentielle requise pour aider le raisonnement et l'apprentissage. Contrairement à cette possibilité, les résultats des expériences 1 à 3 suggèrent que les nourrissons ont utilisé des conclusions logiques désambiguïsant l'identité cachée d'un objet pour évaluer la cohérence d'une action observée avec leurs connaissances de base (c'est-à-dire leur connaissance des dispositions de l'agent). De manière cruciale, dans l'expérience 4, les nourrissons ont utilisé avec succès le résultat de l'inférence disjonctive comme base solide pour l'acquisition de nouvelles connaissances (c'est-à-dire l'attribution d'une préférence à un agent) qui ont soutenu les attentes concernant les choix futurs dans un nouveau contexte. Remarquablement, dans cette expérience, les nourrissons ont réussi à coder la disposition de l'agent envers un objet dans une condition où l'identité de l'objet choisi devait être déduite par élimination après le même nombre de démonstrations que dans l'expérience 3, où l'objet choisi était pleinement visible. Par conséquent, nos résultats révèlent que le raisonnement logique des nourrissons est un puissant dispositif d'inférence qui a une interface déjà à un âge préverbal avec des systèmes informatiques dédiés à des domaines cognitifs distincts (par exemple, le domaine physique et le domaine social 41 ) et génère des conclusions solides qui efficacement servir de preuve pour le raisonnement et l'apprentissage.

Surtout, nos résultats confirment qu'au début de leur deuxième année de vie, les nourrissons sont déjà capables de représenter une relation disjonctive entre deux identités possibles d'un objet caché (c'est-à-dire qu'au moins l'une des deux doit être la bonne) . En effet, les nourrissons ont déduit l'identité correcte de l'objet caché, sans acquérir de preuves directes supplémentaires à l'appui, mais sur la base de données qui excluaient l'autre possibilité. Bien que les capacités inférentielles démontrées ici par les nourrissons pointent vers une certaine forme de raisonnement disjonctif préverbal, elles sont compatibles avec de multiples explications concernant le format des représentations logiques sous-jacentes. L'inférence disjonctive des nourrissons peut reposer sur des opérateurs mentaux explicites de type langage liés à des règles combinatoires syntaxiques et inférentielles (par exemple, A OU ALORS B, NE PAS A, donc B 8 ). Alternativement, la relation disjonctive pourrait être plus implicitement capturée par la représentation d'un espace exhaustif de multiples possibilités mutuellement exclusives en tant que modèles de la scène avec le processus de mise à jour via l'élimination (par exemple, , le modèle A est exclu, donc le modèle B 7 ). Il est important de noter que des recherches supplémentaires sont nécessaires pour déterminer la nature du processus d'élimination des alternatives utilisées par les nourrissons pour faire des inférences disjonctives. L'actualisation par les nourrissons d'une alternative - qui conduit à la confirmation logique de la ou des autres - est-elle un processus catégorique qui l'exclut complètement ou une opération graduée qui abaisse sa probabilité à des valeurs proches mais différentes de 0 ? On pourrait soutenir qu'un processus d'élimination basé sur une pondération fine des preuves négatives par rapport à une alternative pourrait entraîner une contribution plus riche au processus d'apprentissage. Indépendamment du fait que la mise à jour des alternatives par les nourrissons soit catégorique ou probabiliste, pour réussir à déduire l'identité correcte de l'objet caché dans notre tâche, les nourrissons doivent représenter ses identités potentielles dans une relation logique de disjonction, correcte, ainsi les preuves contre l'une confirment l'autre.

Dans un article récent, Leahy et Carey ont suggéré que les enfants de moins de 4 ans peuvent ne pas avoir la capacité de représenter plusieurs alternatives mutuellement exclusives et d'effectuer des calculs pour les mettre à jour, et ils peuvent se rapprocher des attentes logiques via des devinettes en série 42 . Bien qu'il ne soit pas clair comment une telle devinette pourrait avoir lieu sans représenter l'espace des alternatives (ce qui équivaudrait à mettre en œuvre une relation disjonctive), supposons que, tout comme dans nos expériences, il y ait deux objets cachés dans deux emplacements possibles et les nourrissons d'abord deviner au hasard l'identité d'un objet caché. Faute des prérequis logiques de la mise à jour des priors sur la base d'une relation disjonctive entre les alternatives, lorsque les nourrissons voient des preuves qui sont incompatibles avec leur première supposition, ils formulent une nouvelle supposition aléatoire avec les mêmes priors. Il est important de noter que dans cet exemple, une telle estimation effectuée de manière séquentielle peut aboutir à une solution correcte seulement 75 % du temps. En appliquant cette procédure à travers les essais de familiarisation de l'expérience 4, la distribution des solutions incorrectes/correctes devrait être de 1:3. Cependant, des recherches antérieures ont démontré que l'attribution des préférences est perturbée lorsqu'un agent est vu faire des choix incohérents (dans un quart des essais de familiarisation, l'agent choisit l'objet A, tandis que dans le reste, l'objet B 43 ). Ainsi, il est peu probable que le succès des nourrissons dans l'expérience 4 de notre étude s'explique en s'appuyant sur de simples devinettes en série. Au lieu de cela, ces résultats sont conformes à la possibilité qu'une forme préverbale d'inférence disjonctive puisse être en place dès le début. Surtout, comme l'ont également souligné Leahy et Carey, avec l'accumulation de preuves et la contribution d'études futures, nous espérons acquérir une meilleure compréhension de la nature des calculs sous-jacents aux capacités logiques chez les nourrissons et les jeunes enfants.

Les résultats actuels ouvrent également de nouvelles questions et motivent d'autres recherches empiriques concernant la nature et la portée des calculs logiques dans l'esprit préverbal. Premièrement, alors que la présente découverte indique qu'une représentation d'une relation disjonctive est une primitive logique dans l'esprit du nourrisson, les recherches futures devraient essayer d'identifier les précurseurs potentiels des autres concepts qui sont au cœur du raisonnement logique humain. Les formes préverbales de quantification logique (par exemple, les relations exprimées par des mots tels que « chacun » et « tous » 44 ) et le raisonnement modal (par exemple, les inférences fondées sur la représentation de la possibilité et de la nécessité 45 ) sont-ils disponibles tôt dans la vie ?

Deuxièmement, des recherches récentes suggèrent que les nourrissons sont également capables d'effectuer des inférences transitives impliquant des relations de dominance et de préférence 46,47,48. Une piste particulièrement intéressante pour de futures recherches consiste à comparer les précurseurs préverbaux du raisonnement disjonctif et transitif et à se demander si les deux inférences utilisent des types de représentation distincts (par exemple, des règles logiques ou des modèles mentaux) ou bien elles emploient le même système de représentation, mais reposent sur des rapports. Par exemple, alors qu'il est souvent suggéré que les inférences transitives soient basées sur un modèle mental d'ordre linéaire (voir 49,50 pour les résultats avec les enfants et les adultes), les inférences disjonctives impliquent probablement non pas un modèle unique, mais un espace de plusieurs modèles d'interactions mutuelles. possibilités exclusives 51 .

Troisièmement, le succès des nourrissons à combiner une conclusion logique sur l'identité d'un objet avec la représentation d'une action pour attribuer une préférence, suggère que les inférences logiques préverbales documentées ici peuvent être similaires à celles des adultes en ce qu'elles peuvent soutenir l'intégration d'informations. entre des domaines cognitifs distincts.Cette intégrabilité soulève la question de savoir si la représentation de la disjonction par les nourrissons peut être déployée pour raisonner sur divers domaines d'expérience distincts de l'objectivité physique, de la même manière que les opérateurs logiques indépendants du domaine du langage naturel.

En outre, les données fournissant des preuves du rôle épistémique des inférences logiques chez les nourrissons humains soulèvent également une question critique pour les études comparatives. De nombreuses expériences ont révélé des performances de résolution de problèmes chez de nombreuses espèces non humaines qui sont cohérentes avec le raisonnement disjonctif (voir la référence 52 pour une revue). Cependant, certains auteurs ont fait valoir la nécessité de davantage de preuves concernant la présence de représentations logiques non humaines 23,53. Outre de nouveaux tests ciblant les capacités disjonctives non humaines (voir pour un exemple, réf. 54), il peut devenir d'un intérêt primordial de se demander si les inférences logiques potentielles sont une source de preuves pour l'apprentissage dans un esprit non humain. La capacité d'utiliser le raisonnement logique pour acquérir efficacement des connaissances sur les dispositions des congénères et d'autres facteurs de l'environnement étaye-t-elle des prédictions vitales, spécifiques aux humains, ou est-elle partagée avec d'autres espèces non humaines ?

Alors que les recherches futures devraient aborder différentes questions émergentes concernant la nature, la portée et la phylogénie de ces capacités logiques, la présente découverte fournit des preuves d'une puissante capacité inférentielle qui peut soutenir les performances d'apprentissage exceptionnelles des nourrissons humains : le raisonnement logique préverbal. Lorsque les preuves perceptives sont rares, les nourrissons peuvent tirer des conclusions en éliminant les alternatives. Les conclusions logiques préverbales sont des représentations intégrables et des preuves convaincantes qui motivent les nourrissons à tirer de nouvelles inférences, comme celles impliquées dans le raisonnement sur les actions et les objectifs. Ainsi, la capacité des nourrissons à générer des attentes logiques et à les exploiter dans des calculs ultérieurs peut considérablement augmenter leurs opportunités d'apprentissage. Par conséquent, le raisonnement logique préverbal peut offrir à l'enfant apprenant une voie unique vers la connaissance.


Le processus CARS

Le processus CARS repose sur une idée simple : vous ne serez jamais testé sur tout le passage.

Au lieu de cela, on vous posera des questions spécifiques sur des parties spécifiques du passage. Le processus est conçu pour déterminer quelles parties du passage sont interrogées, comprendre ces parties, puis choisir le bon choix de réponse.

Ce processus fonctionne très bien pour tout le monde, mais surtout pour les lecteurs lents ou « mauvais », car cela signifie que vous n'avez jamais à lire ou à comprendre le passage en entier . Cela vous fera gagner beaucoup de temps et de travail mental.

Voici les étapes du processus.

Étape 1 : Pour chaque passage, vous devez créer un mental* résumé de chaque paragraphe.

Le moyen le plus simple de créer un résumé est de se concentrer sur la première et la dernière phrase de chaque paragraphe. Si vous êtes un lecteur lent, vous ne lisez que la première et la dernière phrase de chaque paragraphe.

Le but ici est d'avoir une idée de base de ce dont parle le passage et de la façon dont il est structuré. Si nous avons besoin de détails, nous les aurons plus tard.

Noter*: j'ai souligné mental parce que vous devriez garder tout dans votre tête autant que possible. Je tape tout dans ce post pour vous aider, mais, sur le vrai MCAT, écrire prend beaucoup trop de temps.

Étape 2. Une fois que nous avons créé un résumé de chaque paragraphe, nous analysons la première question pour voir si nous devons en lire plus.

Si nécessaire, nous utiliserons la question pour nous dire quels détails supplémentaires nous devons lire dans le passage. Sinon, nous utiliserons simplement notre compréhension antérieure du passage pour commencer à réfléchir à la réponse à la question et passerons directement à l'étape 4.

3. Si nous devons lire des parties supplémentaires du passage, nous parcourons le passage pour trouver les parties appropriées.

Ensuite, nous lisons attentivement cette partie du passage et nous nous assurons de la comprendre.

Étape 4. Nous analysons les choix de réponses.

Nous lisons attentivement chaque choix de réponse et choisissons celui qui est le plus proche de ce que nous avons déjà identifié comme correct à l'étape 2.

Si nous en avons besoin, nous utiliserons les choix de réponses pour nous indiquer les informations supplémentaires que nous devons lire dans le passage. Il est préférable de rayer autant de choix de réponses que possible avant de le faire, car la vérification de chaque choix de réponse dans le passage prend du temps.


Affiliations

Université Bordeaux, Bordeaux INP, CNRS, LaBRI, UMR5800, 351 cours de la Libération, Talence, 33400, France

LRI UMR8623, Université Paris-Sud, CNRS, Université Paris-Saclay, Bat 650 Ada Lovelace, Rue Raimond Castaing, Gif-sur-Yvette, 91190, France

Inria et LSV, CNRS (UMR 8643) et ENS Paris-Saclay, Université Paris-Saclay, 4 avenue des Sciences, Gif-sur-Yvette, 91190, France

Juraj Kolčák, Thomas Chatain et Stefan Haar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Contributions

L.P., T.C., S.H. a conçu la recherche L.P. a défini les MPBN et démontré les théorèmes 1, 3, 4, mis en œuvre le code, réalisé des expériences et initialement rédigé le manuscrit J.K. démontré le théorème 2 L.P., J.K., T.C., S.H. écrit le manuscrit.

Auteur correspondant


1. La logique des termes

Une. Résumé

(L'édition originale de Logique de Port-Royal est ci-après dénommé Logique Arnauld 2003, ci-après KM, Logique est le vol. 5., 99-413. Traduction française : Arnauld 1996, ci-après B.) Dans le livre I, les auteurs exposent les hypothèses et les concepts fondamentaux de leur théorie sémantique. Ceux-ci incluent une ontologie en mode substance avec sa division dualiste en matière et esprit (Logique, Partie I, Chapitre 2, ci-après I:2) une théorie du langage mental (I:1, 4) les idées et leurs causes, y compris l'abstraction et la restriction (I:1, 5, 8) les dix catégories traditionnelles (I:3 ) et cinq prédicables comprenant les genres et les espèces (I:7) les idées fausses et les erreurs (9-11) et les définitions essentielles (I:12-15). Plus important encore, ils expliquent leur théorie de référence (I:6). Les concepts clés possèdent un ordre définitionnel. Premièrement, tout terme possède par nature un contenu intentionnel. Ce contenu détermine ce que le terme signifie dans le monde. Ce qu'il signifie détermine à son tour ses idées inférieures. Les idées inférieures se combinent alors pour former l'extension du terme. L'extension sera alors le concept clé dans la définition de la vérité dans la partie II. À plusieurs reprises dans l'introduction Discours et Partie I, les auteurs soulignent les dangers intellectuels et moraux qui se cachent dans l'équivoque et les idées fausses.

B. Ontologie

Dans l'introduction, les auteurs refusent de s'engager dans le débat réalisme/nominalisme, sur la question de savoir si, comme ils le disent, les universaux existent un parte rei, car ils jugent la question inintéressante et inutile (Discours JE, KM V 112-113, B 11-12). Dans la partie I, néanmoins, ils supposent une ontologie de base du mode substance qui est à peu près aristotélicienne. Ils ont divisé l'être en deux sortes : substances, qui peut être conçu comme existant indépendamment, et modes (attributs, qualités), qui ne peut être conçu que comme existant instancié dans les substances (I:2).

C. Dualisme, Idées

A cette fondation aristotélicienne la Logique ajoute le dualisme cartésien. Les substances et leurs modes se divisent en deux sortes : spirituelles et matérielles. La propriété essentielle des substances matérielles est l'étendue et celle des âmes est la pensée. Dans le Logique les modes attribués aux substances matérielles sont ceux décrits en physique cartésienne, par exemple, la taille relative, la position, le mouvement et la forme. Les modes attribués à l'âme comprennent les qualités sensorielles, les idées et les opérations mentales. Ces opérations comprennent les trois traditionnellement répertoriées dans la logique médiévale : la conception (Échelle), jugement (affirmation et démenti, juger), et la raison (déduction logique, raisonneur), et un quatrième, l'organisation méthodologique des connaissances (ordonnateur), qui était considérée comme importante dans la logique du 17 e siècle (I:Introduction, KM V 125, B 23). Ces quatre opérations correspondent aux quatre parties du Logique. Bien que les auteurs aient parfois utilisé idée pour désigner vaguement un mode spirituel, dans des contextes plus précis, une idée est un mode mental qui fonctionne comme un terme dans le langage mental, ou ce que les logiciens médiévaux et Descartes appellent un concept.

Ré. Langage mental

le Logique discute de la grammaire au coup par coup (I:1-6 et II). Il ne fournit pas une ventilation exhaustive de la langue parlée en parties de base du discours, ni ne tente de formuler des règles de grammaire précises pour des expressions complexes comme celles d'une grammaire générative moderne. Comme dans la logique médiévale, la langue parlée dans laquelle la logique est conduite (et que le Logique discute) s'avère être un fragment plutôt stylisé du langage naturel (I:1, 4). Chomsky a surpris la communauté linguistique dans les années 1960 en soulignant dans Linguistique cartésienne cette Logique postule un langage mental parallèle à la parole et suggère que leur distinction anticipe la sienne entre structure superficielle et structure profonde (Chomsky 1966, 31 et suivants). Il est plus exact de dire que les logiciens médiévaux avaient élaboré la théorie du langage mental depuis des siècles, dans laquelle les mots et les phrases parlés étaient les signes conventionnels d'un langage de la pensée antérieur à la parole et possédant sa propre grammaire et sémantique. Les opérations linguistiques de base sont la conceptualisation, le jugement et le raisonnement.

La conceptualisation est l'acte d'instancier dans l'âme une idée qui sert de terme de base à la grammaire mentale. Ces idées ont une sémantique. Une idée par sa nature a un contenu intentionnel dont l'âme a plus ou moins clairement conscience lors de l'acte de conceptualisation. Ce contenu intentionnel détermine ce que signifie l'idée dans le monde. Ce qu'il signifie détermine à son tour d'autres idées qui lui sont « inférieures ». L'ensemble de ses inférieurs constitue son « extension » dans le sens spécial propre à la Logique. Une idée qui ne signifie rien de réel (qui ne renvoie pas) est appelée une idée fausse.

Le jugement est l'acte dans lequel l'âme affirme ou nie des propositions, qui sont des complexes grammaticaux dans lesquels les idées apparaissent comme des termes. Le raisonnement est l'acte où l'âme tire une conclusion d'autres propositions comme prémisses. La deuxième partie explique les conditions de vérité des propositions et la troisième partie explique quels modèles de raisonnement sont valides.

Les substantifs et les adjectifs sont les deux types fondamentaux de termes de référence dans les propositions mentales. le Logique n'a pas de terme technique unique de référence. Parfois cela s'appelle expression, parfois représentation, mais le plus souvent cela s'appelle signification, qui était le terme standard dans la logique antérieure. Fondamental à la LogiqueLa sémantique de est la thèse selon laquelle la signification s'explique par le contenu intentionnel (I:2, 5-6).

E. Contenu intentionnel

Comme mentionné ci-dessus, l'un des défis auxquels est confronté le Logique était de reconstruire la théorie médiévale de la référence. Dans les récits aristotéliciens antérieurs, la référence s'explique par la transmission d'une propriété du monde à l'âme. Par sensation et abstraction, selon l'opinion, une propriété externe était causalement transmise via les organes des sens au cerveau et de là à l'intellect. Une fois dans l'intellect, il sert de concept ou de terme dans le langage mental. Ce terme a ensuite été dit pour signifier ces objets en dehors de l'esprit qui instancient la propriété transmise. Le dualisme, cependant, rend ce mécanisme impossible. Si le dualisme est vrai, aucune propriété ne peut être instanciée à la fois dans la matière et dans l'âme.

Pour expliquer la référence, le Logique fait appel à un contenu intentionnel. Le contenu intentionnel était loin d'être une idée nouvelle. Des versions avaient été utilisées tout au long du Moyen Âge pour expliquer divers phénomènes sémantiques (Pasnau 1997). Peter Aureol soutient que ce que nous voyons lorsque nous avons une illusion, comme le mouvement apparent des arbres d'un bateau qui passe, n'est pas quelque chose qui existe vraiment en dehors de l'esprit mais plutôt une troisième entité qui n'existe que « dans l'œil objectivement » et « intentionnellement." À certains moments de sa carrière, Ockham appelle « ce que nous comprenons » lorsque nous saisissons un nom abstrait un « fictum » ayant esse objectivum et esse cogitum (Willam d'Ockham 1978, §10.) Scot appelle la nature de quelque chose un « être intelligible » distinct de la chose elle-même. Au XVIe siècle, il était courant que les logiciens distinguent l'être « formel » et « objectif » d'un concept (Cronin 1966). Un concept a un être formel en tant qu'il est un mode de l'âme et en tant que tel fait partie de sa « forme ». Il exhibe l'être objectif parce qu'il porte en lui la compréhension d'un objet – il « jette » l'objet « contre » l'esprit. Suárez, par exemple, soutient qu'une définition essentielle est vraie intemporellement, même avant la création, car elle signifie être objectif. Toletus explique les « êtres de raison » comme une chimère et des termes non référents comme Antéchrist qui ne se réfèrent pas aux choses existantes comme signifiant l'être objectif. À l'époque de Descartes, la distinction était courante dans les livres de logique étudiés dans les écoles et les universités, y compris les écoles fréquentées par Descartes, Arnauld et Nicole. Il est important, par exemple, dans les traités de Toletus, Raconis, Fonseca et Eustache de Saint-Paul. (Toletus S.J. 1596, 3, 30 Raconis 1651, De principis entis, une. 3, §1a, 827 Fonseca S.J. 1599, q. ii, §1 Eustachio-De-S.-Paulo 1648 Métaphysie, De natural entis, de conceptus formali et objectivo, 1 voir aussi Cronin 1966). Descartes fait appel à l'être objectif de l'idée de Dieu dans son célèbre argument ontologique de Méditation III (§§ 21–22). le Logique préfère parler du contenu d'une idée, mais Arnauld utilise la terminologie médiévale réalité objective ou alors étant objectivement dans Sur les idées vraies et fausses. (Voir Arnauld 1813, vol. I, ci-après VFI, Ch. 5, 6 KM I, 202, 205 traduction anglaise Arnauld 1990 [1683], ci-après g, 69, 71-127). Dans le Logique l'être objectif sert à expliquer non seulement la signification, mais aussi l'extension, l'abstraction, la restriction, la négation privative, la définition essentielle, l'ambiguïté, l'équivoque, les idées claires et distinctes et la perception.

Le rôle explicatif du contenu intentionnel (I:6-7) commence par les substantifs. Grammaticalement, les substantifs sont des idées qui servent de sujets ou de prédicats à des propositions catégoriques. Sémantiquement, un substantif se distingue par son contenu intentionnel, qui dans le cas d'un substantif s'appelle sa compréhension. La compréhension s'explique par l'appel à l'ontologie du mode substance. La compréhension d'un substantif est une suite de modes. En termes modernes, il peut être considéré comme un ensemble de modes. Ceux-ci forment le contenu de l’idée et fournissent ses critères d’identité. Deux substantifs sont identiques si et seulement s'ils ont les mêmes compréhensions. La signification est alors définie en termes de compréhension. Un substantif signifie toutes et seulement les entités qui satisfont à tous les modes de sa compréhension. La théorie n'est pas différente - en fait, c'est un lointain ancêtre de - la vision de Frege selon laquelle le sens détermine la référence. Un substantif qui signifie plusieurs individus est un nom commun ou abstrait. Celui qui signifie un seul individu est un nom propre. Normalement, un substantif signifie des substances, mais il peut aussi signifier des modes, comme la blancheur. Si un substantif signifie une autre idée, qui est un mode de l'âme, c'est un terme de seconde intention.

Les adjectifs ont aussi un contenu intentionnel, mais la terminologie est différente. Grammaticalement, les adjectifs servent de prédicats de propositions catégoriques ou de modificateurs de substantifs dans des syntagmes nominaux plus longs. Sémantiquement, un adjectif a pour contenu intentionnel un mode ou parfois plusieurs modes. Dans le cas d'un adjectif, on les appelle son signification secondaire. Ce contenu détermine les objets pour lesquels l'adjectif est vrai ou « signifie au sens premier » : un adjectif signifie principalement toutes et seulement les entités qui instancient tous les modes dans sa signification secondaire. Encore une fois, le contenu intentionnel fournit des conditions d'identité : deux adjectifs sont identiques si et seulement s'ils ont la même signification secondaire. Suivant l'usage médiéval, un adjectif est appelé un terme connotatif (Je:8 KM V152 B 46). Il signifie directement un mode et connote indirectement les individus auxquels ils sont inhérents. Les substantifs diffèrent sémantiquement des adjectifs en ce que la fonction première d'un substantif est de signifier une entité en abstraction de ses modes. Un adjectif, cependant, attire l'attention sur des entités en attirant d'abord l'attention sur le ou les modes dans sa signification secondaire. (La terminologie primaire et secondaire dérive de la métaphyse aristotélicienne dans laquelle les substances sont ontologiquement antérieures aux modes parce qu'un mode doit exister dans une substance.) Parce qu'un substantif signifie des objets directement mais qu'un adjectif signifie des objets indirectement en signifiant d'abord un mode, un substantif est appelé relationnel absolu et adjectif.

Il est clair que le LogiqueLes auteurs de ’s considéraient les ensembles de modes intentionnels comme faisant partie de son explication de la conceptualisation ou de « ce que c'est que de comprendre une idée ». Les détails sont étoffés dans la partie IV dans la discussion des idées claires et distinctes et de la sensation. Comme certains nominalistes qui croyaient à l'être objectif, le LogiqueLes auteurs font remarquer que l'être objectif n'est pas une sorte d'entité représentative entre, ou en plus, l'âme et le monde extérieur. C'est un fait de psychologie, soutiennent-ils, que lorsqu'une perception est expérimentée pendant la sensation ou lorsqu'une idée est clairement conçue dans la pensée, l'âme est consciente des modes qui constituent son contenu. Aucun mode de matière expérimenté dans le contenu d'une perception ou d'une idée, cependant, ne peut être vrai de l'âme elle-même. Ils sont vrais plutôt de la substance matérielle extérieure à l'âme qui est l'objet de la sensation ou que l'idée signifie.

F. Types d'idées, Occasionalisme

Comme Descartes (Méditations III.7), les auteurs soutiennent qu'il existe trois types d'idées qui diffèrent par la façon dont elles sont causées. Elles sont adventice, inné, et artificiel.

Idées adventices sont celles causées par Dieu à l'occasion d'une sensation corporelle. La sensation est expliquée plus en détail dans la partie IV. Parce que les modes matériels ne peuvent pas être instanciés dans l'âme, le Logique est forcé de rejeter l'explication aristotélicienne habituelle de la formation de la sensation et du concept. Le transfert matériel des modes dans la sensation ne va que jusqu'au cerveau. Les propriétés d'une substance matérielle voyagent de l'objet détecté aux organes des sens du percepteur, et de là au cerveau, mais elles s'arrêtent là. Les modes matériels ne peuvent alors être transférés « intentionnellement » à l'âme elle-même pour être perçus consciemment. le LogiqueL'explication alternative de est une forme d'occasionalisme. (Sur l'occasionnalisme dans le Logique voir I:1, KM V 132-33, B 29-30 I:9, KM V 157-78, B 9-50 I:12, KM V168-170, B 58–60 VFI 6, KM je 204, g 71–71 VFI 27, KM I 349-50, g 208. Pour des descriptions plus larges du cartésianisme en général, voir Nadler 2011, Nadler 1989 et Garber 1993.)

A l'occasion d'une sensation corporelle dans laquelle un objet matériel transfère ses modes au cerveau du percepteur sous forme de mouvement physique, Dieu fait simultanément instancier dans l'âme un mode mental. Ce mode est adventice et s'appelle un la perception dans un sens étroit. De plus, une perception a un contenu intentionnel dont l'âme est consciente avec des degrés divers de vivacité, de clarté et de netteté. Certains de ces modes, comme le mouvement, la position relative et la forme, sont matériels et sont vrais pour l'objet en dehors de l'esprit provoquant la sensation. Les autres modes du contenu de la perception sont sensoriels. Ils sont vrais de l'âme elle-même, comme les couleurs, les goûts, les odeurs, les textures, les sons et les sentiments de plaisir et de douleur.

Idées innées sont des idées directement instanciées dans l'âme par Dieu en dehors de la sensation. Ils incluent l'idée de l'infini et de Dieu lui-même.

Idées factices sont causées par l'âme elle-même à travers l'une des deux opérations mentales suivantes : restriction ou abstraction. Les deux opérations étaient des sujets standard dans la logique précédente. le LogiqueLe récit de est nouveau en ce qu'il explique leurs mécanismes en termes de contenu intentionnel.

G. Restriction déterminante et explicative

Grammaticalement, la restriction est une opération mentale par laquelle l'âme forme une phrase substantielle plus longue en modifiant un substantif avec un adjectif ou une proposition relative. Sémantiquement, une proposition relative fonctionne comme un adjectif : elle a une signification primaire et secondaire. Dans la restriction, une nouvelle idée est formée. Sa compréhension est l'intersection des compréhensions des deux idées contributives. Puisque la nouvelle compréhension contient plus de modes que le substantif ou son modificateur, elle sera souvent vraie pour moins de choses et sera alors moins générale. Si le syntagme restreint signifie moins d'individus que le substantif seul, on dit qu'il est déterminant. En revanche, si la restriction ne signifie pas moins de choses mais ajoute simplement des informations superflues, elle est appelée explicatif.

Parce qu'une restriction explicative ne réduit pas le domaine de signification du substantif modifié, la proposition exprimée équivaut à une conjonction de propositions. Dans l'un d'eux, le modificateur étranger est supprimé, et dans l'autre, le modificateur est prédicat du substantif original. Par exemple, dans le Pape, qui est le Vicaire du Christ, réside à Rome, la clause relative qui est le Vicaire du Christ ne restreint pas davantage la gamme de signification du sujet le pape. La proposition est donc équivalente à une conjonction de deux propositions : Le Pape réside à Rome et le Pape est le Vicaire du Christ (I:8, KM V 151-52, B 44-45). Cette distinction entre les clauses relatives déterminatives et restrictives avait été faite fréquemment dans la logique antérieure. (Voir, par exemple, Buridan 2001, 286 Parsons 2014, 5.6.) Le Logique ajoute son explication en termes de contenu. La distinction est également faite dans la grammaire moderne en utilisant la terminologie des propositions relatives restrictives et non restrictives.

H. Restriction indéterminée

le Logique reconnaît également ce que certains commentateurs appellent un type spécial de restriction appelé restriction indéterminée (II:6, KM V145, B 40 je:7, KM V 147-48, B 41-42 I:7, KM V150, B 44 II:3, KM V199, B 83). (Pariente 1985, 247-238, Auroux 1993, 74.) Il ne s'agit pas vraiment d'un deuxième type de restriction mais plutôt d'une manière de désigner la restriction dans le métalangage à l'aide d'un quantificateur existentiel. La restriction indéterminée est importante dans la partie II où elle est utilisée pour énoncer les conditions de vérité de propositions affirmatives particulières. Comme expliqué ici, une affirmation particulièrement un certain S est P est vrai s'il y a un troisième terme, appelez-le Q, par lequel les deux termes S et P sont restreints, de sorte que les termes restreints ont la même extension. Comme dans une analyse similaire d'Aristote appelé ecthèse (voir, par exemple, Analyse préalable 28a23-26, 30a9-14), le sous-ensemble commun partagé par S et P est « exhibée » par les deux termes restreints. Dans l'énoncé précis des conditions de vérité, la restriction se produit dans son sens univoque mais de telle manière qu'il y a une quantification existentielle dans le métalangage sur le terme restrictif : un certain S est P est vrai si et seulement s'il y a une idée Q de sorte que les restrictions de S par Q et P par Q ont la même extension.

Je. Fausses idées

Si la combinaison des modes dans la compréhension d'une idée n'est pas conjointement vraie d'un objet réel, alors l'idée est dite faux.

Si les objets représentés par ces idées, qu'ils soient substances ou modes, nous sont représentés tels qu'ils sont en fait, on les appelle vrais.véritables]. S'ils ne le sont pas, ils ne peuvent être que faux [elles sont fausses en la manière qu'elles peuvent être], et c'est ce qu'on appelle à l'École des êtres de la raison, qui consistent ordinairement dans la combinaison que l'âme fait de deux idées réelles en elles-mêmes, mais qui ne sont pas jointes en vérité pour former une seule idée. Un exemple est celui qui peut être formé à partir d'une montagne d'or. C'est un être de raison, parce qu'il est composé de deux idées, de montagne et d'or, qu'il représente comme une même si elles ne le seraient pas vraiment. (I:2, KM V136, B 32, traduction de l'auteur. Voir également Discours JE, KM V110, B 9-10 I:9, KM V 157-78, B 49-50 I:11, KM V, 168-170, B 58–60.)

Bon nombre des exemples de fausses idées donnés dans le Logique ne sont pas seulement faux mais impossibles, soit parce que leur contenu contient des modes contraires, soit parce que les lois de la nature empêchent leur satisfaction commune. Dans la logique antérieure, il était courant d'appeler une chose aussi inexistante un être de raison. On disait souvent qu'il avait un être objectif et qu'il avait un statut en réalité distinct de l'âme et des êtres réels (esse réel, en re). (Voir, par exemple, Willam of Ockham 1978 §10, et Suárez 1995.) Un exemple standard était un être impossible comme une chimère, un bouc ou une montagne dorée, ainsi qu'un être possible planifié mais incomplet comme un château, une maison ou une ville. Les auteurs de la Logique, cependant, rejettent l'idée qu'un être de raison possède une réalité indépendante de l'âme, et considèrent plutôt l'être objectif comme une propriété des idées. Une idée a un être objectif dans la mesure où l'âme est consciente des modes du contenu intentionnel de l'idée lorsque l'idée est instanciée dans l'âme. En tant qu'exemples flagrants d'idées fausses, les Logique cite ceux dont les compréhensions combinent les modes spirituel et matériel. Les exemples comprennent un arc-en-ciel rouge, bleu et orange (de gouttes d'eau) douleur causée par le feu la lourdeur a causé l'attraction gravitationnelle le bonheur causé par la richesse matérielle le courage comme exploits de bravoure manque de plaisir physique comme mal et solitude spatiale comme misère. Certaines idées, cependant, ne sont fausses que de façon contingente. le Logique remarque, par exemple, que Alexandre, le fils de Philippe serait une fausse idée si Alexandre n'avait pas été le fils de Philippe. L'idée le bâton plié dans l'eau serait faux si le bâton était droit, mais vrai sinon. Pierre, le négateur du Christ se trouve être une idée vraie, mais puisque Peter était libre, cela pourrait bien avoir été une fausse idée.

A la suite de Descartes, le Logique place les idées fausses au centre de son explication de l'erreur, en particulier les erreurs caractéristiques de la psychologie aristotélicienne et diverses défaillances morales. Les récits aristotéliciens de la perception se trompent parce qu'un mode vrai de la matière ne peut pas voyager via la sensation et l'abstraction pour devenir instancié dans l'âme. Au contraire, le monde matériel, qui consiste en une extension cartésienne modifiée par des modes géométriques et mécaniques, est entièrement séparé de l'âme, qui est modifiée par des modes de sensations, de sentiments et de morale. Les idées qui combinent les deux sont fausses. En outre, de nombreux défauts moraux sont fondés sur de fausses idées. Quand on est jeune, on croit à tort que les qualités morales, qui sont vraies de l'âme, sont causées par des circonstances matérielles. Nous nous trompons lorsque nous les combinons en une seule idée, par exemple, lorsque nous combinons la vertu et la richesse du monde.

Les fausses idées sont importantes pour la logique car elles ont des implications pour la théorie de la vérité. Sémantiquement, les fausses idées sont des termes sans référence – elles n'ont pas de portée existentielle. Quelles sont les conditions de vérité d'une proposition catégorique affirmative avec une idée fausse comme terme sujet ? Les logiciens médiévaux s'étaient divisés sur la question de savoir si cet échec rendait la position fausse. La citation ci-dessus, et d'autres dans le Logique, suggèrent fortement que, selon Arnauld et Nicole, une affirmation avec une idée fausse comme sujet est fausse. La question revient dans l'exposé de la vérité nécessaire et contingente de la partie IV. (Voir Martin 2012.)

J. Abstraction

La seconde manière dont l'âme provoque des idées nouvelles est par abstraction. Diverses descriptions de l'abstraction faisaient partie de la logique depuis Aristote, mais le LogiqueLa version de devait être rendue compatible avec le dualisme. (Pour un récit médiéval standard, voir Thomas d'Aquin, Somme théologique I.I, Q. 85.) Pour ce faire, les auteurs expliquent son mécanisme comme une manipulation de contenu intentionnel. (I:5, KM V 142-43, B 37-38 I:11, KM V168-170, B 58–59 VFI 6, KM je 207-210, g 74–76 VFI 11, KM je 234-235, g 98–100.)

L'abstraction provient soit d'une sensation, soit d'une idée préalable. A l'occasion de la sensation, Dieu fait éprouver à l'âme une vive conscience d'un contenu modal. Certains de ces modes, comme l'extension, la position relative et le mouvement, sont vrais pour l'objet matériel qui est le corrélat externe de l'expérience et qui a provoqué les mouvements correspondants dans le cerveau du percepteur. D'autres de ces modes, comme les couleurs, les goûts, le poids, les sons et les sentiments associés, sont vrais pour l'âme. En s'occupant de ce contenu large, le percepteur peut se faire une idée à partir de ce contenu. L'âme le fait en sélectionnant comme compréhension de l'idée un sous-ensemble de modes évidents dans l'expérience perceptive.

Le deuxième type d'abstraction provient d'une idée antérieure. Tout en s'occupant de la compréhension d'une idée antérieure, le percepteur peut former une nouvelle idée avec une nouvelle compréhension en sélectionnant un sous-ensemble de modes à partir de la compréhension de l'idée antérieure. Parce que le nouveau contenu contient moins de modes, il est généralement vrai de plus de choses et est donc plus général.

le Logique décrit l'accumulation d'idées abstraites comme progressive, commençant par des abstractions de l'expérience sensorielle et passant à des idées de plus en plus générales. Dans la logique antérieure, l'abstraction était généralement décrite comme progressant dans l'ordre inverse (par exemple, dans Thomas d'Aquin ci-dessus), en commençant par l'abstraction jusqu'aux idées les plus générales, puis en progressant par étapes de restriction vers des idées plus concrètes.

K. Les catégories et les prédictibles

Suivant la tradition logique, le Logique approuve les catégories d'Aristote (I:3) et les prédicables de Porphyre (I:7). Sa liste des dix catégories est standard : substance, quantité, qualité, relation, activité, passivité, lieu, temps, position, et Etat. Le livre mentionne à peine plus tard les distinctions entre les diverses catégories de non-substance. Comme certains logiciens de la fin du Moyen Age, les auteurs considéraient évidemment les distinctions entre les types de modes comme sans importance. En particulier, le Logique parle rarement de relations en tant que telles, bien qu'il reconnaisse que certains modes sont interne à une substance et à d'autres externe. A la mode médiévale, les modes externes sont un autre nom pour les relations, et sont ainsi appelés parce qu'ils ne tiennent d'une substance que par référence à une autre substance.

Les auteurs approuvent également les cinq prédicables, un sujet standard en logique depuis Porphyre : genre, espèce, déférence, propriété, et accident. Ceux-ci classent les prédicats mentaux selon leur degré de nécessité. Ces distinctions, contrairement à celles qui existent entre les types de modes, sont importantes dans le Logique.

Les genres et les espèces sont des noms communs dans le langage mental (I:4-6). En tant que tels, ils ont des compréhensions et signifient des individus. Dans le cas normal, ils signifient des substances, mais en termes de seconde intention, ils peuvent aussi signifier des modes. Les différences, les propriétés et les accidents sont aussi des termes du langage mental, mais ce sont des adjectifs. En tant que tels, ils signifient secondairement un ou des modes, et signifient principalement les individus qui satisfont à ces modes. Ainsi, vus ontologiquement, les genres et les espèces diffèrent de la différence, de la propriété et de l'accident comme les substances diffèrent des modes. Aux genres et aux espèces correspondent les individus qu'ils désignent, qui sont en général des substances. Aux différences, propriétés et accidents correspondent les modes qu'ils signifient directement et les objets auxquels les modes appartiennent indirectement.

le Logique utilise les prédicables pour articuler son explication de la définition essentielle. Les détails suivent les comptes standard précédents. Chaque espèce a une définition essentielle ou réelle, distincte d'une définition nominale (1:12-014). Une définition nominale établit une convention dans laquelle un son parlé est associé à une idée. (Cette relation est aussi appelée signification, mais en ce sens elle est distincte de la signification au sens de référence, une relation naturelle entre une idée et ce qu'elle représente en dehors de l'esprit. Les sens doubles étaient communs dans la logique médiévale.) Un réel ou la définition essentielle est une proposition affirmative universelle dans laquelle une espèce est le terme sujet et son genre restreint par un adjectif distinctif est le prédicat. L'adjectif s'appelle la différence d'espèce (différenciation). Une définition essentielle est nécessairement vraie et décrit la nature de l'espèce. La partie IV attribue un rôle majeur dans la connaissance scientifique aux définitions essentielles.

Il résulte de l'exposé de la définition essentielle que les espèces entrent dans une structure. Chaque genre, sauf le plus élevé, est lui-même une espèce et a sa propre définition essentielle. Le genre le plus élevé, qui n'a pas de définition, est appelé étant ou alors substance. Une espèce qui n'est pas un genre est une infima espèce. A plusieurs endroits, le Logique mentionne la doctrine traditionnelle de la différenciation par la privation. C'est le cas où un genre se divise en deux espèces qui sont telles que la différence de la seconde est la négation privative de la différence de la première. (I:7, KM 148, B 42 II:15, KM 242, B 124.) L'espèce animal, par exemple, est dit se diviser en l'espèce Humain avec la différence rationnel et l'espèce brute avec la différence privative irrationnel. Bien que les auteurs n'attirent pas l'attention sur le fait, le récit implique des genres et des espèces conformes à une structure arborescente finie à ramifications finies, qui est traditionnellement appelée l'arbre de Porphyre. (Voir Structure des idées au dessous de.)

Une propriété (proprium) est un adjectif qui n'est la différence d'aucune espèce mais qui signifie néanmoins secondairement un mode nécessairement vrai d'une espèce. A titre d'exemple, le Logique cite un mode qui est nécessairement vrai d'un cercle mais ne fait pas partie de sa définition : toutes les lignes du centre à la circonférence sont equal. Un accident est tel que toute espèce « peut être conçue sans lui ». Plus précisément, un accident est un adjectif qui n'est pas une différence ou une propriété. Un accident connote un mode qui est vrai mais pas nécessairement vrai de ce qu'il signifie. Ce n'est pas vrai pour tous les membres d'une espèce, ou ce n'est pas toujours vrai pour eux.

L. nominalisme-réalisme

Comme certains logiciens médiévaux, le Logique explique les genres et les espèces de manière nominaliste. D'un point de vue ontologique, les genres et les espèces ne sont pas classés comme un type particulier d'entité en plus de la matière et de ses modes, ou des âmes et de leurs modes, comme certains réalistes l'avaient suggéré. Ce sont simplement des idées, qui sont des modes de l'âme. D'autre part, le Logique traite les différences, les propriétés et les accidents de manière réaliste. Strictement parlant, ce sont aussi des idées dans le langage mental (I:7). Mais ce sont aussi des adjectifs, et comme tels ils signifient des modes secondairement. Fréquemment le Logique brouille l'usage-mention et utilise la différence, la propriété et l'accident pour se référer à ces modes eux-mêmes. Par example, la différence de l'espèce humaine signifie parfois l'adjectif rationnel et parfois la rationalité du mode. Le contexte indique clairement ce qui est prévu. le LogiqueLa métathéorie globale de est fondamentalement réaliste car elle suppose une ontologie de mode substance fondamentale dans laquelle les modes ont une existence réelle. Ainsi, bien que le LogiqueL'ontologie de est fondamentalement réaliste, ce qui est évident dans ce qu'elle a à dire sur la différence, la propriété et l'accident, elle adopte la démarche nominaliste de certains logiciens antérieurs d'éviter de poser des entités spéciales pour les genres et les espèces en les identifiant avec des modes de l'âme .

M. La compréhension comme généralisation de l'essence

Dans le LogiqueDans le vocabulaire technique de l'espèce, les différences rassemblées des genres supérieurs d'une espèce constituent la compréhension de l'espèce, qui est son contenu intentionnel. En effet, il n'est pas exagéré de dire que le LogiqueToute la théorie de la référence par le contenu intentionnel — compréhension pour les substantifs et signification secondaire pour les adjectifs — est une généralisation de la théorie aristotélicienne de la définition essentielle. Disponible dans cette théorie était la généralisation qu'une espèce comprend les individus qui satisfont sa différence et ceux de ses genres supérieurs. Dans le Logique, ce sont ces modes qui déterminent ce que signifie un terme d'espèce. En d'autres termes, une espèce signifie ces individus qui satisfont les modes dans son contenu intentionnel. C'est un petit pas pour attribuer un contenu à tous les termes et expliquer leur signification de la même manière.

N.m. Espèce et différence

le Logique a une vision étrange des espèces. Une espèce et sa différence, soutient-il, sont sémantiquement équivalentes. Ils signifient tous les deux les mêmes individus et ont donc la même extension (I:7, KM V 147-48, B 42). Les auteurs suivent ici Aristote, qui soutenait que chaque espèce a une différence unique. En d'autres termes, deux espèces n'ont pas la même différence. (Voir, par exemple, Parties d'animaux 3, 642b20-643a20.) De plus, si une différence, qui est un adjectif, se lit comme un substantif, l'espèce et la différence signifient les mêmes individus. Il est tout à fait normal en latin de lire un adjectif comme un nom lorsqu'il n'est pas utilisé pour modifier un autre nom. le Logiquel'exemple est le mot album (blanc) qui peut être compris comme un adjectif ou un nom. De même, rationalis est un adjectif dans rationalis animal, mais un nom signifiant les mêmes individus que homo lorsqu'il apparaît seul comme nom. Ainsi, la signification du nom est la signification première de l'adjectif. Dans le LogiqueDans la terminologie de , la signification secondaire de la différence lorsqu'elle est interprétée comme un adjectif est identique à sa compréhension lorsqu'elle est interprétée comme un nom. C'est pour cette raison que le Logique dit parfois qu'une espèce et sa différence sont la même chose.

O. Signification et extension

L'extension est probablement le concept le plus intéressant dans le Logiquela sémantique de. La vérité est définie en termes d'extension, mais l'extension est définie en termes d'idées. Le résultat a l'apparence d'une sorte d'idéalisme dans lequel la vérité se définit indépendamment du monde extérieur. L'apparence, cependant, est trompeuse. Bien que les auteurs soient du genre dualistes et révolutionnaires qui veulent définir la vérité en utilisant uniquement des catégories mentales, ils sont également conservateurs dans le sens où ils veulent maintenir une théorie de la vérité par correspondance. Pour ce faire, ils ont défini l'extension afin qu'elle suive ce qui se passe dans le monde en dehors de l'esprit. Certes, une affirmative universelle est vraie si l'extension de son terme sujet est contenue dans l'extension du prédicat. De plus, l'extension consiste ici en des idées. Mais la subordination entre ces idées correspond, semble-t-il, à la subordination entre les choses du monde.

L'histoire est quelque peu indirecte en raison du style mathématique lâche des auteurs. Ils omettent de donner ce que nous considérerions aujourd'hui comme une définition claire de l'extension. Le mieux qu'ils aient à dire, c'est que l'extension d'un terme se compose de ses « sujets inférieurs ». (I:6) Ils précisent que par "sujets" ils entendent ici des idées. A partir de ces deux remarques, il est possible de reconstituer une définition : la extension d'une idée se compose de toutes ses idées inférieures. Le problème, cependant, est qu'ils ne définissent pas « inférieur ». Ils donnent un exemple. Divers types de triangles, disent-ils, sont inférieurs au genre triangle. Cette lecture est d'ailleurs conforme à l'usage antérieur de la logique médiévale. La suggestion est que l'extension de UNE est l'ensemble de toutes les idées B telle que tous les modes de compréhension de UNE sont inclus dans la compréhension de B. Plusieurs choses s'ensuivent : Premièrement, l'extension de B serait inclus dans celui de UNE si et seulement si toutes les idées définies en termes de B sont un sous-ensemble de toutes les idées définies en termes de UNE. Deuxièmement, toutes les idées définies en termes de B sont un sous-ensemble de toutes les idées définies en termes de UNE si et seulement si la compréhension de UNE est un sous-ensemble de la compréhension de B. Il s'ensuit que le fait qu'une espèce soit inférieure à un genre serait fonction des définitions essentielles. La définition de l'infériorité impliquerait que tout S est P est vrai si et seulement si la compréhension de P est un sous-ensemble de celui de S. Une véritable affirmative universelle serait alors affaire d'inclusion conceptuelle et, en tant que telle, nécessaire. Un exemple plausible serait chaque animal est un être vivant. Ce serait vrai parce que l'espèce animal fait partie du genre de être vivant ou équivalent, animal est défini en termes de être vivant. Étant une définition essentielle, elle est également nécessaire.

Cette lecture, cependant, est beaucoup trop étroite pour s'adapter à d'autres points de vue dans le Logiqueest une métathéorie plus générale. Elle exclut, par exemple, la possibilité d'une vérité contingente. En particulier, elle implique les mauvaises conditions de vérité pour les propositions qui affirment des prédicats accidentels. Les accidents, bien sûr, ne sont pas des espèces. Ils n'ont pas d'« inférieurs » au sens proposé. D'autre part, des propositions contingentes comme Pierre a renié le Christ et chaque élève de la classe dort peut être vrai, mais le contenu intentionnel du prédicat n'est pas contenu dans celui du sujet. De même en tant que matière contingente un négatif universel comme aucun médecin n'est un voleur peut être vrai et aucun docteur n'est poète faux, mais dans ce cas les deux peuvent être rendus faux en fonction des idées. L'ensemble des idées définies en termes de docteur et poète est non vide si l'idée docteur-poète est formé par restriction De même l'ensemble des idées définies en termes de docteur et voleur est non vide s'il contient médecin-voleur. (Voir Auroux 1993, 135, et Martin 2017.) La lecture pose également des problèmes pour le Logiquela doctrine de la fausse idée. Comme expliqué ci-dessus, le Logique attribue des erreurs de philosophie et de moralité à des propositions croyantes qui ont de fausses idées comme sujets. Ce sont des idées qui ne signifient aucune chose existante, comme douleur causée par le feu ou alors homme riche vertueux. Les propositions affirmatives avec des idées fausses comme sujets, c'est-à-dire des propositions affirmatives avec des termes sujets qui n'ont aucune portée existentielle, sont censées être fausses. En revanche, le contenu intentionnel de montagne est contenu dans celui de montagne d'or, et tout ce qui est défini en termes de montagne d'or serait défini en termes de montagne. Il semblerait donc qu'une proposition triviale mais vide comme chaque montagne d'or est une montagne serait vrai malgré avoir une idée fausse comme sujet. La question est importante dans la partie IV (voir Martin 2012).

Le contexte plus large clarifie la définition correcte de l'infériorité. La clé est de définir l'infériorité en termes de signification : idée UNE est inférieur à B si et seulement si chaque individu qui UNE signifie B signifie. De manière équivalente, UNE est inférieur à B si et seulement si tous les individus qui satisfont les modes dans le contenu intentionnel de UNE satisfont également tous les modes dans le contenu intentionnel de B. le extension d'idée UNE, ou Ext(UNE), est défini comme l'ensemble des idées B qui signifient seulement les individus qui B signifie. Il s'ensuit que les idées dans l'extension d'un terme, qui est l'ensemble de ses inférieurs, signifient ce que le terme signifie, mais le font dans les moindres détails. Laisser la plage de signification d'idée UNE, ou Sig(UNE), être l'ensemble de tous les individus qui UNE signifie. En bref, Ext(UNE) est l'ensemble des idées B tel que Sig(B)⊆Sign(UNE).

Les mappages Ext et Sig forment une correspondance un à un et, par conséquent, la définition de l'extension garantit que l'extension d'un terme fournit un moyen indirect de se référer à des individus « hors de l'esprit ». Poste(UNE) détermine Sig(UNE) parce que Sig(UNE) est l'ensemble de tous les individus qui sont dans une idée dans Ext(UNE). Inversement, Sig(UNE) détermine Ext(UNE) car Ext(UNE) est l'ensemble de toutes les idées inférieures à UNE qui signifient uniquement des individus en Sig(UNE). De plus, leurs relations d'inclusion se reflètent : Sig(UNE)⊆Sign(B) si et seulement si Ext(UNE)⊆Ext(B). Suit une théorie de la vérité par correspondance. Comme l'explique la partie II, les conditions de vérité de l'affirmative universelle sont énoncées en termes d'inclusion extensionnelle : tout S est P est vrai si et seulement si Ext(S)⊆Ext(P). Mais cela vaut exactement quand Sig(S)⊆Sign(P).

Le lecteur doit être averti que la définition de l'extension dans le Logique est assez différent de celui habituel dans la logique moderne. L'usage moderne, qui suit Leibniz et Frege, identifie l'extension de UNE avec Sig(UNE). C'est-à-dire que, dans l'usage moderne, l'extension de UNE est un ensemble d'individus, pas d'idées. Bien que le Logiquel'usage est tombé en désuétude, il a une priorité historique.

P. La structure des idées

Les relations d'ordre sur les idées et les extensions ont suggéré à certains commentateurs que le Logique anticipe l'algèbre booléenne du XIXe siècle. (Voir Dominicy 1984, Auroux 1982 et Auroux 1993.) La suggestion est intrigante mais exagérée. Il est vrai que le contenu intentionnel semble être un ensemble de modes et les ensembles sont ordonnés par la relation de sous-ensemble. Cet ordonnancement induit d'ailleurs une relation de confinement sur les idées : idée UNE est contenu dans idée B (brièvement UNEB) si et seulement si le contenu intentionnel de B est un sous-ensemble du contenu intentionnel de UNE. De plus, chaque idée détermine une plage de signification. Le mappage des idées aux gammes de signification est, de plus, multiple parce que des idées distinctes peuvent signifier les mêmes individus. Par exemple, une différence d'espèce et ses proprium aurait le même intervalle de signification, de même que les deux termes Pierre et l'homme qui a renié Christ trois fois. Le mappage, de plus, est antitonique - il inverse l'ordre : si UNEB, le suivant(B)⊆Ext(UNE). Comme indiqué ci-dessus, il existe également un mappage de préservation d'ordre un-un entre les plages de signification et les extensions. Il s'ensuit qu'il existe plusieurs correspondances antitoniques des idées aux extensions : si UNEB, le suivant(B)⊆Ext(UNE). Ainsi, comme Leibniz l'a observé plus tard, l'ordre des extensions renverse l'ordre des idées. Ce sont toutes de véritables propriétés algébriques au sens moderne du terme, et elles sont en quelque sorte implicites dans le Logique. D'autre part, ces propriétés n'ont pas été remarquées par les Logiqueles auteurs eux-mêmes.

Dans leur propre langage pré-algébrique sur le confinement, la signification et l'extension, les auteurs font des remarques sur l'ordre et la correspondance. Il est cependant exagéré de dire qu'ils ont remarqué la dualité ou les propriétés d'une algèbre booléenne (voir Martin 2016c). Ils ne commentent pas le fait que l'ordre des extensions renverse celui des idées, condition nécessaire à la dualité. Ils ne précisent pas que et sont réflexifs, transitifs ou asymétriques. Ils prétendent encore moins que l'abstraction et la restriction satisfont aux conditions des opérations de rencontre et de jointure. L'abstraction, par exemple, est traitée comme une opération à un seul endroit, et rien n'indique que l'ensemble d'idées soit « fermé » sous l'effet de l'abstraction ou de la restriction. Il n'y a aucune preuve textuelle qu'ils aient envisagé une idée maximale, qui aurait pour contenu intentionnel l'ensemble de tous les modes. Il n'est pas clair non plus si étant, le genre le plus élevé, doit être considéré comme une idée minimale. Est étant dans la compréhension de montagne d'or ou alors cercle carré? Les auteurs évitent de tels problèmes. Les rares fois où ils se réfèrent à une négation en tant qu'opération, il s'agit de la notion médiévale de négation privative plutôt que d'une opération de complémentation au sens moderne. (I:7, KM 148, B 42 II:15, KM 242, B 124. Voir Martin 2016b.) Ils ne disent même pas explicitement que genres et espèces présentent la structure de l'arbre de Porphyre. (Voir Auroux 1992, Auroux 1993.) En somme, la discussion de la structure dans le Logique est pré-algébrique, comme les discussions de structure trouvées dans la logique médiévale, dont le Logique est une continuation.


17.8 Un exemple d'un autre système d'axiome : l'arithmétique de Peano

Nous terminons cette brève introduction à l'approche axiomatique en examinant comment nous pouvons étendre la logique du premier ordre pour nous permettre d'étudier une tâche spécifique familière : l'arithmétique.

Nous avons mentionné plusieurs fois Gottlob Frege dans ce texte. Ce mathématicien et philosophe a apporté des contributions essentielles à la logique du premier ordre, à la philosophie des mathématiques et à la philosophie du langage. Son objectif principal dans tous ses travaux, cependant, était de prouver que les mathématiques étaient une extension de la logique. Ce point de vue s'appelait le « logicisme ».

Pourquoi quelqu'un serait-il intéressé par un tel projet ? Lorsque Frege écrivait, il y avait de nombreux désaccords sur certaines questions fondamentales en mathématiques. Ceux-ci comprenaient le statut de la théorie des ensembles, que beaucoup trouvaient très utile, mais que d'autres n'aimaient pas. La solution proposée par Frege était très élégante. Si nous pouvions dériver l'arithmétique d'une poignée d'axiomes logiques que tout le monde trouverait acceptables, alors nous aurions un moyen de régler tous les différends concernant l'arithmétique. Pour mettre une affirmation controversée au-delà de la critique, nous aurions à montrer que nous pouvions la dériver directement de nos axiomes incontestables.

Malheureusement, le projet de Frege a échoué. Son ultime axiomatisation de l'arithmétique s'est avérée avoir un défaut fatal. Alors que Frege avait le dernier volume de ce projet sous presse, il a reçu une carte postale d'un jeune philosophe, Bertrand Russell. Russell tentait le même projet que Frege, mais il avait remarqué un problème. Dans le système de Frege, Russell a pu déduire une contradiction. C'était dévastateur : tout comme dans notre logique, dans la logique de Frege, on pouvait tout tirer d'une contradiction. Et donc cela signifiait que le système de Frege était incohérent : il pouvait prouver des mensonges.

Ce que Russell a prouvé est maintenant appelé « le paradoxe de Russell ». Il vaudrait mieux l'appeler « Contradiction de Russell », puisqu'il s'agit explicitement d'une contradiction. Les systèmes logiques utilisés par Russell et Frege avaient des entités spéciales appelées « classes », mais étant donné que la plupart des gens d'aujourd'hui sont plus familiers avec les ensembles, nous pouvons réaffirmer la contradiction de Russell avec les ensembles. Russell a montré que dans le système de Frege, il pouvait dériver une phrase qui voulait dire quelque chose comme : il y a un ensemble de tous les ensembles qui ne s'appartiennent pas.

Pensez à cela pendant un moment. Cet ensemble s'appartient-il à lui-même ? S'il le fait, il ne devrait pas, car il est censé être l'ensemble de toutes et seulement de ces choses qui ne leur appartiennent pas. Ainsi, il ne doit pas s'appartenir à lui-même. Mais alors, ce serait un de ces ensembles qui ne s'appartiennent pas, et donc il devrait s'appartenir. Nous avons une contradiction.

Frege était dévasté. De notre point de vue, c'est malheureux, car ses réalisations étaient déjà si grandes qu'il n'aurait pas dû penser que cette erreur était une réfutation de tout son travail.

Le logicisme n'est pas mort. Russell a trouvé un moyen d'éviter la contradiction en utilisant une sorte de système logique appelé « théorie des types », et il a poursuivi la construction de l'arithmétique dans son énorme livre, écrit avec Alfred Whitehead, Principia Mathematica. Le système de ce livre est, malheureusement, beaucoup plus lourd que le système de Frege, et a gagné peu de convertis au logicisme. Aujourd'hui, cependant, il y a encore des mathématiciens qui croient que la théorie des types peut être la meilleure façon de comprendre les mathématiques.

Le plus souvent, cependant, les traitements des fondements de l'arithmétique se tournent directement vers une axiomatisation qui inclut des éléments explicitement mathématiques. Le plus familier d'entre eux est généralement appelé « les axiomes de Peano », bien qu'ils soient considérablement modifiés par rapport à la version de Giuseppe Peano (1858-1932) d'après qui ils portent leur nom. Peano lui-même cite Richard Dedekind (1831-1916) comme sa source. Une version standard des axiomes de Peano est étonnamment compacte et s'avère suffisante pour faire tout ce que nous voulons que l'arithmétique fasse. Les axiomes, cependant, supposent et spécifient clairement des choses sur les nombres et les opérations sur les nombres. Nous appelons parfois de tels axiomes «axiomes non logiques» ou «axiomes propres», non pas parce qu'ils ont quelque chose d'irrationnel, mais parce qu'ils visent clairement à saisir une notion riche qui peut sembler plus spécifique qu'une notion logique très générale.

Voici un ensemble possible d'axiomes pour l'arithmétique, limité à l'addition et à la multiplication.

Nous supposons tous les axiomes de la logique du premier ordre décrits dans la section 17.6 (c'est-à-dire que nous avons (L1) à (L5)). Nous avons un seul terme spécial, 0 . Nous avons trois lettres de fonction spéciales dans notre langue, f 1 et f 2 , qui sont d'arité deux, et f 3 , qui est d'arité un. f 1 et f 2 doivent recevoir une interprétation cohérente avec l'addition et la multiplication. f 3 est la fonction successeur, pensez-y comme ajouter un à n'importe quel nombre. Nous avons un prédicat d'arité deux P 1 , que nous interprétons comme nous le ferions « = ». Cependant, pour des raisons de familiarité, nous écrirons « + » et « ∙ » et « = ». Pour la fonction successeur, nous utiliserons " ′ ". Ainsi nous écrivons le successeur de 0 en écrivant 0 ′ . Le successeur de 0 est bien sûr 1. Le successeur de 1 est 2, exprimé 0 , et ainsi de suite.

Avec tout cela à l'esprit, un tel système d'axiome est :

(A1) ( x 1 = x 2 → x 1 = x 2 )
(A2) ( x 1 = x 2 → x 1 = x 2 )
(A3) ( x 1 = x 2 → ( x 1 = x 3 → x 2 = x 3 ))
(A4) x 1 = 0
(A5) x 1 + 0 = x 1
(A6) x 1 + x 2 = ( x 1 + x 2 ) ′
(A7) x 1 0 = 0
(A8) x 1 x 2 ′ = ( x 1 ∙ x 2 ) + x 1

(Rappelez-vous que « + » et « ∙ » sont utilisés ici uniquement comme raccourci pour nos fonctions dans notre langage objet, nous n'avons pas de notation infixe et nous n'avons pas besoin des parenthèses désambiguïsantes montrées ici pour les axiomes (A6) et (A8). Cela est, l'axiome (A6), par exemple, est en fait P 1 f 1 x 1 f 3 x 2 f 3 f 1 x 1 x 2. En regardant cette phrase, vous réaliserez sans aucun doute pourquoi il est très utile de passer à notre façon habituelle d'écrire ces choses.)

Nous pouvons également faire de l'induction mathématique une partie explicite de ce système (au lieu d'un principe de notre seul raisonnement métalogique), et l'inclure comme un axiome :

(A9) (Φ(0) → ( ∀ x i (Φ( x i ) →Φ( x i ′ )) → ∀ x i Φ( x i )))

Ces axiomes suffisent à faire tout ce que l'on attend de l'arithmétique.C'est assez remarquable, car l'arithmétique est très puissante et flexible, et ces axiomes sont peu nombreux et apparemment simples et évidents. Puisque ceux-ci formulent explicitement nos notions d'addition, de multiplication et de nombres, ils ne réalisent pas ce que Frege rêvait, il espérait que les axiomes seraient plus généraux, et d'eux on tirerait des choses comme l'addition et la multiplication. Mais cela reste une démonstration puissante de la façon dont nous pouvons réduire les grandes disciplines du raisonnement à des principes fondamentaux compacts.

Des axiomatisations comme celle-ci nous ont permis d'étudier et de découvrir des choses choquantes sur l'arithmétique, la plus notable étant la découverte par le logicien Kurt Godel (1906-1978) que l'arithmétique est soit incomplète soit incohérente.

En terminant notre discussion sur les systèmes axiomatiques, nous pouvons utiliser ce système pour prouver que 1+1=2. Nous utiliserons la règle d'indiscernabilité des identiques introduite en 15.3. Nous commençons par laisser x 1 être 0 ′ et x 2 être 0 pour obtenir l'instance de l'axiome (A6) sur la ligne 1 et l'instance de (A5) sur la ligne 2.

1. 0 ′ + 0 ′ = ( 0 ′ + 0 ) ′ axiome (A6)
2. 0 ′ + 0 = 0 ′ axiome (A5)
3. 0 ′ + 0 ′ = 0 ′′ indiscernabilité des identiques, 1, 2

Parce que la ligne 2 nous dit que 0 + 0 et 0 ′ sont identiques, en utilisant l'indiscernabilité des identiques, nous pouvons substituer 0 ′ à 0 ′ + 0 dans le côté droit de l'identité à la ligne 1. Rappelez-vous que les parenthèses sont là seulement pour lever l'ambiguïté de notre raccourci, cela signifie que ( 0 ′ ) ′ et 0 sont en fait les mêmes.


En savoir plus sur le VHDL

Conceptions structurelles ou comportementales

Le langage VHDL peut être utilisé pour définir des circuits de différentes manières, avec différents niveaux d'abstraction. Les descriptions comportementales ne décrivent que les relations d'entrée et de sortie d'un circuit, sans prêter attention à la structure ultime du circuit. Les conceptions comportementales sont des descriptions abstraites relativement faciles à lire et à comprendre, et elles s'appuient sur un logiciel de synthèse pour définir les détails structurels. À l'autre extrémité du spectre, les descriptions structurelles définissent les blocs de circuits et les interconnexions. Ce sont des descriptions rigoureuses et pleines de détails, et elles peuvent être difficiles à lire et à comprendre pour d'autres ingénieurs. Souvent, le comportement du circuit se perd dans le volume des détails structurels. Les deux méthodes ont des avantages et des inconvénients. Les conceptions comportementales peuvent avancer rapidement, car il est généralement beaucoup plus facile de décrire comment quelque chose se comporte plutôt que comment il est construit. Étant donné que les conceptions comportementales peuvent être réalisées relativement rapidement, les concepteurs peuvent passer plus de temps à étudier diverses approches de conception alternatives et plus de temps à s'assurer que toutes les exigences de conception sont correctement mises en œuvre. Mais dans le commerce, les conceptions comportementales cachent de nombreux détails importants, ce qui rend difficile la modélisation et la simulation de circuits avec un haut degré de fidélité.

Dans notre brève exposition au langage VHDL jusqu'à présent, nous nous sommes concentrés sur les descriptions comportementales de base des circuits. Par exemple, dans un exercice précédent, on vous a demandé de créer une description VHDL pour un circuit capable de détecter les sept premiers nombres premiers. Le circuit a été mis en œuvre à l'aide d'une déclaration d'affectation de signal, et aucune préoccupation n'a été accordée à la structure réelle du circuit et ces détails ont été laissés au synthétiseur. Cela aurait pris beaucoup plus de temps si vous deviez d'abord trouver la structure du circuit, puis la mettre en œuvre.

Dans certaines situations, les concepteurs choisissent d'utiliser le VHDL structurel pour définir un circuit au lieu (ou en plus) de définir son comportement. Plus de travail est nécessaire pour créer une définition structurelle VHDL, car une plus grande quantité de détails doit être décrite. Mais en échange de cet effort accru, des modèles de simulation beaucoup plus précis et puissants peuvent être créés. Par exemple, considérons un circuit pour ajouter deux nombres de 4 bits. Une description comportementale indiquerait Y <= A + B (en supposant que Y, A et B sont tous des vecteurs logiques standard à quatre bits). Après synthèse, ce circuit pourrait être composé de quatre additionneurs complets connectés dans une configuration RCA. Mais le simulateur n'aurait pas accès aux nœuds internes (comme les signaux de retenue), et donc la synchronisation ou d'autres problèmes avec ces signaux ne pourraient pas être facilement découverts. Comparez cette déclaration de comportement avec la description structurelle dans l'exemple de code ci-dessous sur la figure 26. Dans la description structurelle, les signaux internes sont explicitement nommés et sont donc facilement disponibles pour le simulateur.

Dans une conception donnée, un ingénieur peut choisir d'abord de capturer une conception relativement rapidement en utilisant le VHDL comportemental de haut niveau pour étudier son comportement et valider ses performances par rapport aux exigences de conception. A ce stade, différentes solutions peuvent être facilement codées et simulées, et leurs avantages relatifs mis en lumière. Une fois qu'une solution préférée est découverte, une partie ou la totalité de la conception peut être recodée en VHDL structurel afin que des simulations plus détaillées puissent se produire, donnant au concepteur une compréhension plus complète du comportement du matériel. Autre avantage de l'utilisation de méthodes structurelles, les blocs de conception terminés peuvent être réutilisés dans des conceptions ultérieures.

Les méthodes structurelles VHDL sont similaires aux méthodes basées sur des schémas et les composants individuels sont conçus et enregistrés dans une bibliothèque de projet, puis ajoutés à la conception de niveau supérieur selon les besoins. Les signaux des composants peuvent être connectés directement aux ports d'E/S dans la conception de niveau supérieur, ou interconnectés à d'autres composants à l'aide de signaux déclarés localement. Toute paire entité/architecture VHDL valide peut être utilisée comme composant dans un autre fichier source VHDL, tout comme n'importe quel schéma de circuit peut être transformé en macro puis utilisé dans un autre schéma. Dans un environnement schématique, un composant peut être ajouté à la conception en ajoutant son symbole graphique à la page schématique. En VHDL, un composant est ajouté à un fichier source en le déclarant d'abord dans la &ldquodeclaration area&rdquo, puis en l'instanciant. Une instruction de déclaration de composant informe l'analyseur VHDL qu'un composant donné peut être utilisé dans le fichier source courant. Lorsque l'analyseur trouve un composant déclaration , il vérifie que le composant est disponible dans une bibliothèque de projet. Un composant instanciation L'instruction est utilisée pour ajouter réellement le composant à la conception. Les instructions d'instanciation fournissent des noms uniques pour chaque instance de composant, puis répertorient toutes les connexions de signal de port dans un plan des ports déclaration. Des exemples de ces deux déclarations sont fournis dans l'exemple de code source pour un RCA à 4 bits ci-dessous sur la figure 26.

Figure 26. Exemple de code source pour l'instanciation et la déclaration.

Les composants sont connectés aux signaux dans la conception de niveau supérieur à l'aide d'un plan des ports déclaration. Les signaux des composants peuvent être connectés directement aux ports d'E/S dans la conception de niveau supérieur, ou ils peuvent être connectés à d'autres composants en utilisant des signaux déclarés localement. Chaque instruction d'instanciation de composant doit inclure une instruction de mappage de port pour établir toutes les connexions de signal requises. Dans l'exemple de code ci-dessus, certains signaux de composants sont connectés aux signaux de port d'E/S dans la conception de niveau supérieur, et certains sont connectés à d'autres composants à l'aide des signaux CO déclarés localement.

L'instruction d'instanciation du composant commence par une étiquette alphanumérique unique terminée par deux points. Les étiquettes peuvent utiliser n'importe quel caractère légal (généralement, des lettres et des chiffres), et elles peuvent être descriptives du composant, ou simplement un espace réservé séquentiel comme dans l'exemple ci-dessus. Le nom de l'entité du composant suit l'étiquette, puis les mots clés &ldquoport map&rdquo. L'instruction de mappage de port contient une liste de tous les signaux composants nommés exactement comme ils l'étaient dans l'instruction de déclaration précédente. Les signaux composants sont répertoriés un par un, suivis de l'opérateur &ldquoassigned to&rdquo => et du nom du signal de niveau supérieur auquel ils sont affectés. Toutes les affectations de signaux de mappage de ports sont contenues dans une liste délimitée par des parenthèses, et la parenthèse fermante est suivie d'un point-virgule.

L'exemple RCA à 4 bits ci-dessus montre deux instructions de déclaration de composant (une pour le demi-additionneur nommé HA et une pour l'additionneur complet nommé FA) et quatre instanciations de composant. Les instructions de déclaration de composant généreront des erreurs si les entités de demi-additionneur et d'additionneur complet ne sont pas nommées &ldquoHA&rdquo et &ldquoFA&rdquo (c. Souvent, les nouveaux programmeurs VHDL utilisent par erreur les fenêtres nom de fichier pour un composant plutôt que le nom de l'entité. Vous pouvez choisir de donner au fichier source le même nom que l'entité si vous le souhaitez.

Dans une conception VHDL structurelle typique, certains composants doivent être connectés à d'autres composants à l'aide de signaux déclarés localement. L'exemple RCA à 4 bits ne fait pas exception et des signaux mdashlocal sont nécessaires pour connecter le report d'une tranche de bits au report d'entrée de la suivante. Dans l'exemple, quatre nouveaux signaux (sous la forme d'un bus nommé CO) sont déclarés. Étant donné que ces signaux ne sont pas inclus dans la déclaration de port d'entité de niveau supérieur, ils ne sont pas &ldquovisible&rdquo en dehors de l'entité et ne peuvent être utilisés que localement, au sein de l'entité. Si de tels signaux doivent être accédés en dehors de l'entité, alors leur déclaration doit être supprimée de la zone de déclaration et placée dans la déclaration de port de l'entité de niveau supérieur.

En résumé, un fichier source VHDL structurel utilise d'autres modules VHDL préconçus comme composants. Toute paire entité/architecture VHDL préexistante peut être utilisée en tant que composant en déclarant d'abord l'entité en tant que composant, puis en instanciant le composant. Une instanciation est composée d'une étiquette alphanumérique unique, du nom de l'entité et d'une instruction de mappage de port qui connecte les signaux composants aux signaux de niveau supérieur (soit des signaux déclarés localement, soit directement aux signaux des ports d'E/S).

Conception modulaire en VHDL

Le langage VHDL comprend plusieurs façons de réutiliser du code précédemment écrit dans d'autres fichiers source. Dans la méthode décrite ci-dessus, vous pouvez écrire des descriptions de circuits sous forme de paires entité/architecture, puis inclure ce code en tant que composant dans une autre conception. Dans une autre méthode, vous pouvez écrire des descriptions de circuits dans des sous-programmes tels que des fonctions et des procédures. Les sous-programmes encapsulent des descriptions souvent utilisées dans un seul morceau de code qui peut être paramétré pour être utilisé dans différents contextes au sein d'un fichier source.

La création de sous-programmes dépasse notre cadre actuel, mais vous avez déjà utilisé plusieurs sous-programmes (sous forme de fonctions) sans le savoir. Le langage VHDL ne contient aucune fonctionnalité intrinsèque pour évaluer les expressions logiques dans les instructions d'affectation, donc les fonctions logiques comme AND, OR, NAND, etc., sont définies comme des fonctions, et ces fonctions sont incluses dans une bibliothèque qui est distribuée avec chaque outil VHDL ensemble.

Une bibliothèque VHDL est une collection d'&ldquodesign units&rdquo qui ont été pré-écrites et analysées, et stockées dans un répertoire du système de fichiers de l'ordinateur hôte. Toute unité de conception stockée dans une bibliothèque peut être utilisée dans n'importe quel autre fichier source. Le langage VHDL définit cinq types d'unités de conception, notamment des entités, des architectures, des packages, des corps de packages et des configurations. Vous êtes familiarisé avec les unités de conception d'entités et d'architecture. Les packages sont utilisés pour définir et stocker les déclarations couramment utilisées pour les composants, les types, les constantes, les signaux globaux, etc., et les corps des packages contiennent des fonctions et des procédures. Les configurations associent une entité à une architecture particulière et ne sont nécessaires que dans le cas assez rare où plusieurs architectures sont écrites pour une entité donnée (les configurations sont parfois utilisées dans des conceptions plus grandes ou plus complexes et seront traitées dans un projet ultérieur) .

Le type std_logic que vous avez utilisé est défini dans le package &ldquostd_logic_1164&rdquo qui a été écrit il y a longtemps, stocké dans une bibliothèque nommée &ldquoIEEE&rdquo et transféré sur votre ordinateur lorsque vous avez installé l'outil ISE/WebPACK. Les fonctions logiques telles que AND, OR, NAND, NOR, XOR, XNOR, etc., sont stockées dans le corps du package 1164. Si le package 1164 n'était pas disponible dans la bibliothèque IEEE, vous ne pourriez pas utiliser les types std_logic et vous ne pourriez pas écrire d'instructions d'affectation comme &ldquoY <= A et B&rdquo. En fait, plusieurs types et fonctions ont été normalisés par l'IEEE et sont inclus dans des packages de la bibliothèque IEEE. Comme mentionné, le package std_logic_1164 de la bibliothèque IEEE contient des définitions pour les types de données communs (comme std_logic et std_logic_vector) ainsi que des fonctions logiques communes comme AND, OR, NAND, NOR, XOR, etc. Un autre package commun appelé &ldquostd_logic_arith&rdquo contient une collection de fonctions arithmétiques comme l'addition (+), la soustraction (-), la multiplication (*). D'autres packages contiennent d'autres collections de fonctions utiles.

Les bibliothèques et les packages doivent être déclarés dans un fichier source avant de pouvoir accéder à leur contenu. Les bibliothèques sont identifiées dans un fichier source à l'aide d'un &ldquological name&rdquo un outil de gestion de bibliothèque associe un nom de bibliothèque logique à l'emplacement physique de la bibliothèque dans le système de fichiers de l'ordinateur. De cette façon, les fichiers source VHDL n'ont besoin de connaître que les noms logiques. Les mots clés bibliothèque (suivi du nom logique de la bibliothèque) et utiliser (suivi du nom du package) doivent être inclus dans un fichier source pour rendre leur contenu disponible. Lorsque l'analyseur VHDL rencontre un mot ou un symbole qu'il ne reconnaît pas, il recherchera dans les bibliothèques et packages disponibles les définitions appropriées. Par exemple, lorsque l'analyseur trouve le &ldquoand&rdquo dans &ldquoY<= A et B&rdquo, ou le &ldquo+&rdquo dans &ldquoY <= A + B&rdquo, il recherchera les définitions &ldquoand&rdquo et &ldquo+&rdquo dans les packages qui ont été déclarés. Il est courant d'inclure les instructions de bibliothèque et d'utilisation affichées à droite dans chaque fichier source VHDL afin que les types et fonctions courants puissent être utilisés.

Figure 27. Exemple de nom de bibliothèque logique et d'emplacement physique.

Fonctions arithmétiques en VHDL

Le package std_logic_arith de la bibliothèque IEEE définit plusieurs fonctions arithmétiques qui peuvent être exécutées sur les types de données std_logic et std_logic_vector. Si les instructions &ldquolibrary IEEE&rdquo et &ldquouse std_logic_arith&rdquo sont incluses dans votre fichier source, les opérateurs d'addition ('+'), de soustraction ('-'), de multiplication ('*') et de division ('/') (ainsi que d'autres opérateurs) peut être utilisé avec les types std_logic. Par exemple, les nombres binaires portés par deux std_logic_vectors peuvent être additionnés en écrivant une instruction telle que &ldquoY<=A + B&rdquo.

Lors de l'utilisation d'opérateurs arithmétiques sur std_logic_vectors, le vecteur de sortie doit être correctement dimensionné ou l'analyseur VHDL signalera une erreur, ou les données seront perdues. Pour nos besoins dans les exercices d'accompagnement, assurez-vous que le vecteur logique de sortie utilisé pour capturer les sorties des fonctions arithmétiques n'est pas plus petit que les vecteurs d'entrée. En général, si des vecteurs logiques plus petits sont combinés par des opérations arithmétiques dans des vecteurs plus grands, les résultats seront justifiés à droite dans le vecteur de sortie plus grand. Si des vecteurs plus grands sont combinés en vecteurs trop petits pour contenir tous les bits de sortie requis, les résultats seront toujours justifiés à droite et les bits les plus significatifs seront perdus.


Voir la vidéo: Test de raisonnement logique avec des figures expliqué (Novembre 2021).