La machine Libratus repousse encore un peu les limites de l’intelligence artificielle dans le jeu.
Le poker résistait encore à l’intelligence des algorithmes. Mais l’intelligence artificielle développée par des chercheurs de Carnegie Mellon, au sein d’une équipe constituée autour de Noam Brown (étudiant) et Tuomas Sandholm (professeur) en est venu à bout. Elle a joué successivement et battu quatre joueurs de premier plan mondial, spécialisés dans le « No limit Hold’em en heads-up », une variante de poker à multiples inconnues. Contrairement aux jeux d’échecs et de go, qui reposent sur de la pure stratégie et où les positions de l’adversaire sont connues, le poker, en particulier cette variante, est un jeu à multiples inconnues, où le facteur chance et l’élément psychologique priment. Libratus utilise le deep learning et un algorithme basé sur «l’équilibre de Nash», la théorie des jeux du Prix Nobel d’économie John Nash (1994), qui permet d’optimiser ses gains. Enfin, il profite de ce que les joueurs de poker appellent la chance du débutant : il joue d’une manière qui peut être perçu comme totalement imprévisible.
AlphaGo est le premier programme à battre sans handicap un des meilleurs joueurs mondiaux, Lee Sedol.
Le système, développé par DeepMind (rachetée par Google en 2014), a initialement été entraîné pour « imiter » les joueurs humains, en retrouvant les coups enregistrés lors de dizaines de milliers de parties menées par des joueurs experts. Une fois un certain niveau atteint, il s’est entraîné à jouer des millions de parties contre d’autres instances de lui-même, utilisant l’apprentissage par renforcement grâce à un réseau de neurones profond pour s’améliorer. Programmer un joueur de go était considéré comme un problème bien plus difficile que pour d’autres jeux, comme les échecs, en raison d’un bien plus grand nombre de combinaisons possibles, ce qui rend extrêmement complexe l’utilisation de méthodes traditionnelles telles que la recherche exhaustive.
Pour tirer profit du deep learning, Google a conçu et utilise des unités de traitement TPU (Tensor Processing Unit).
Google reconnait avoir développé ces unités de traitement de données pour faire face à l’explosion des coûts de calcul due au deep learning. L’entreprise californienne avait anticipé que, rien que l’utilisation de la reconnaissance vocale, aurait nécessité de doubler le nombre de ses centres de données. Les TPU se sont révélées 15 à 30 fois plus rapides que les processeurs graphiques (GPU) et les puces de calcul (CPU) contemporains. De plus, elles ont une meilleure efficacité énergétique que les puces classiques, améliorant d’un facteur 30 à 80 la mesure TOPS / Watt (tera-opérations soit 1012 opérations par watt consommée). En outre, les réseaux neuronaux qui les utilisent ne nécessitent qu’une très faible quantité de code, seulement 100 à 1500 lignes. Les TPU permettent de faire des prédictions très rapidement, les appareils qui les utilisent (moteurs de recherche, de reconnaissance d’images, de traduction, etc.) répondent en une fraction de seconde. Ce sont aussi ces puces qui ont contribué à la victoire de DeepMind sur Lee Sedol au jeu de go.
Ce programme de Facebook est quasi-infaillible.
D’après les chercheurs de Facebook, ce système basé sur un processus d’apprentissage peut déterminer si deux visages photographiés appartiennent à la même personne avec une performance de 97,25 %.
Un système d’apprentissage et de classification a « découvert », par lui-même, le concept de chat.
Dans le cadre de Google Brain, le projet de deep learning de la firme américaine, un système d’apprentissage et de classification basé sur des réseaux de neurones a été capable de « découvrir », par lui-même, le concept de chat. Jeff Dean, Greg Corrado et Andrew Ng ont montré 10 millions d’images sans indication et tirées au hasard de Youtube à ce vaste réseau neuronal sur 16 000 ordinateurs.
L’assistant de commande vocale d’Apple comprend et répond.
Cette interface homme-machine comprend les instructions verbales données par les utilisateurs et répond à leurs requêtes. Elle repose sur la reconnaissance vocale, le traitement du langage naturel oral et la synthèse vocale.
Ce programme d’intelligence artificielle conçu par IBM remporte le jeu télévisé Jeopardy.
Watson a été conçu dans le but de répondre à des questions formulées en langage naturel. Il a remporté le jeu télévisé Jeopardy : il est capable de comprendre l’énoncé des questions, buzzer pour prendre la main, trouver les réponses en quelques secondes, et, grâce à une synthèse vocale, énoncer les réponses et choisir le thème et le montant de la prochaine question, comme l’exigent les règles du jeu.
Le Tianhe-1 est le premier à intégrer le TOP500 des plus puissants supercalculateurs.
Installé au National Supercomputing Center, à Tianjin en Chine, le Tianhe-1 atteint théoriquement 4,7 PFlops et 2,57 PFlops sous Linpack. Ses performances consacrent également les GPU comme processeurs de calcul généralistes. C’est une machine hybride qui associe des processeurs x86 Intel Xeon à des processeurs graphiques Nvidia Tesla. Le GPGPU a trouvé ses lettres de noblesse. Grâce à cette association, le rendement énergétique est excellent : 4 MW, soit 640 MFlops/W. Avec les Etats-Unis et le Japon, la Chine reste depuis en tête du classement.
Dès 2014, elle deviendra la première à passer l’épreuve du permis de conduire dans le Nevada.
Elle est franchie par le supercalculateur Roadrunner d’IBM.
Un pétaflops : 1015 opérations par seconde et une vraie rupture technologique : Roadrunner qui est le premier supercalculateur hybride, utilisant à la fois des processeurs généralistes et des “accélérateurs”. IBM a utilisé une technologie maison, le processeur Cell, inauguré par la PlayStation 3. Il est ici employé comme coprocesseur auprès de processeurs X86 classiques, des Opteron d’AMD. Sa puissance théorique cumulée est de 1,38 PFlops. Roadrunner prit la tête du TOP500 de juin 2008 avec 1,04 PFlops sous Linpack. Un des avantages revendiqués par les architectures hybrides est leur meilleur rendement énergétique. Roadrunner consomme seulement 2,35 MW, soit 437 MFlops/W. La bête pèse 227 tonnes et occupe une surface de 483 m2 dans le laboratoire de Los Alamos où elle est installée.
Elle décuple les performances de calcul d’un système.
NVidia propose l’architecture de traitement parallèle Cuda qui exploite la puissance des processeurs graphiques (GPU). C’est le début du GPU computing, où le GPU est dédié uniquement au calcul parallèle. Cuda est une technologie de GPGPU (General Purpose Computing on GPU). L’architecture Tesla, qui offre selon NVidia la puissance de calcul d’un supercalculateur (4 téraflops en simple précision, 80 gigaflops en double précision) est construite sur Cuda.
C’est la puissance du supercalculateur BlueGene/L, nouveau leader du TOP500.
Pour atteindre ce record, IBM employa 65536 processeurs PowerPC 440 à 700 MHz. Déjà à l’époque, ces puces ne faisaient plus partie des plus puissantes du marché. Mais elles étaient compactes et consommaient relativement peu ce qui permettait à IBM de les installer deux par deux sur de petites cartes enfichées dans la carte mère de chaque rack. Le BlueGene/L révéla également un très bon rendement : sa puissance sous Linpack correspond à 75 % de sa puissance théorique.
Miniatures, polyvalentes et puissantes.
Conçues par IBM et Trek Technology en 2000, les clefs USB utilisent la mémoire flash pour stocker les données. Elles sont rapidement devenues l’appareil de stockage standard en raison de leur petite taille et de leur polyvalence. Initialement capables d’accueillir 8 Mo de données, les clefs actuelles permettent de stocker jusqu’à 256 Go.
Cette toile sémantique doit permettre d’accéder plus simplement à la connaissance sur le Web.
Tim Berners-Lee décrit cette évolution, sorte d’extension du Web, standardisée par le W3C, dans un article de Scientific American. Selon le W3C, le Web sémantique « fournit un modèle qui permet aux données d’être partagées et réutilisées entre plusieurs applications, entreprises et groupes d’utilisateurs ». Tim Berners-Lee supervise le développement des technologies communes du Web sémantique. Elles mettent notamment en œuvre le Web des données qui consiste à lier et structurer l’information sur Internet pour accéder simplement à la connaissance qu’elle contient déjà. Cela consiste à étendre le réseau de liens hypertextes des pages Web lisibles humainement par l’insertion de métadonnées lisibles par la machine sur les pages et améliorer la manière dont les liens hypertextes sont liés les uns aux autres pour permettre à des agents d’accéder au Web de manière plus intelligente.
Conçus pour l’affichage graphique, les processeurs GPU se révèlent prometteurs pour les supercalculateurs.
NVidia invente le processeur GPU (Graphics Processing Unit), GeForce 256, initialement pour l’affichage graphique. Ce type de processeurs a connu un essor fulgurant. La rivalité des constructeurs NVidia et ATI (racheté par AMD) a mené à l’évolution des GPU vers des circuits dédiés au calcul hautement parallèle. En fonction du GPU on est capable de traiter plusieurs centaines ou milliers de nombres réels en parallèle. Cette puissance de calcul est devenue tellement importante pour un coût finalement très réduit que les scientifiques sont de plus en plus nombreux à en exploiter le potentiel dans d’autres domaines. Les supercalculateurs n’ont pas tardé à les intégrer à leur architecture. Rappelons que le but initial d’une carte graphique est de produire une image (ensemble 2D de pixels avec couleurs) à partir d’une scène 3D où les objets sont modélisés par des triangles auxquels on applique des textures et des effets de lumière, en fonction de l’angle de vue de l’utilisateur dans la scène et des sources de lumière.
Des solutions de stockage de plus en plus conséquentes et miniaturisées.
Après les bandes magnétiques, les multiples disquettes, les CD, DVD…, les cartes SD impressionnent par leur miniaturisation. Présentées par la SD Card Association en 1998, ces cartes mémoires Secure Digital (SD) ont été spécialement conçues pour résister à de multiples manipulations, à travers l’utilisation d’appareils comme des caméscopes numériques, des consoles de jeu et des téléphones portables. Elles sont aussi devenues populaires en tant que système de stockage pour PC et sont encore utilisées aujourd’hui. La capacité de stockage initiale des cartes SD standard n’était que de 1 à 4 Mo, mais des cartes allant jusqu’à 128 Go sont désormais disponibles et certains annoncent la prochaine sortie de cartes permettant jusqu’à 1 To de stockage (le standard SDXC prévoit jusqu’à 2 To).
Le supercalculateur DeepBlue d’IBM sort vainqueur de ses parties contre Garry Kasparov.
DeepBlue calcule 200 millions de positions par seconde. Selon Murray Campbell, l’un des trois principaux concepteurs de Deep Blue, le fameux coup (un coup osé, surprenant et contre intuitif, sacrifiant un pion) qui a déstabilisé Kasparov proviendrait en réalité d’un bug…
ASCI Red, construit par Intel pour le Sandia Lab, est en tête du TOP500.
Le supercalculateur franchit la barre d’une puissance de calcul en téraflops (mille milliards d’opérations par seconde). Grâce à ses 7264 Pentium Pro 200 MHz, il offrait une puissance théorique de 1,453 TFlops, et 1,068 TFlops en pratique sous Linpack. L’ASCI Red était un des premiers supercalculateurs à utiliser des composants de grande série. Son architecture modulaire et évolutive lui permis de rester en tête du TOP500 pendant plusieurs années.
Ce robot de conversation en langage naturel a fait date.
Richard Wallace développe le chat-bot Alice (Artificial Linguistic Internet Computer Entity), aussi appelée Alicebot. Ce logiciel de robot parlant est inspiré d’Eliza, en lui ajoutant le langage naturel via une collection d’échantillons d’une taille sans précédent, autorisée depuis l’avènement du Web. C’est un programme qui permet une conversation avec un humain en appliquant des règles heuristiques de reconnaissance de mots-clés aux mots prononcés par l’humain. Il est l’un des plus importants programmes de ce type et a remporté trois fois le Prix Loebner relatif au Test de Turing, attribué au meilleur chatterbot en 2000, 2001 et 2004. Cependant, le programme n’est pas en mesure de passer le test de Turing, car même un utilisateur occasionnel peut remarquer son aspect mécanique lors de courtes conversations.
Ces applications web permettent de trouver des ressources à partir d’une requête sous forme de mots.
Ce sont Lycos (1994), Altavista (1995) et Backrub (1997), ancêtre de Google. Leur fonctionnement se décompose en trois processus : l’exploration (ou crawl), l’indexation des ressources récupérées puis la recherche (ou requête, qui restitue les résultats). Un moteur de recherche est d’abord un outil d’indexation : il collecte des documents sur les sites Web via un « robot » ou bot, spiders, crawlers ou agents qui parcourent les sites pour découvrir de nouvelles adresses (URL). Les mots considérés comme significatifs sont extraits et enregistrés dans une base de données. Les moteurs les plus simples se contentent de requêtes booléennes, une méthode inadaptée aux corpus volumineux. Les plus évolués sont basés sur des modèles vectoriels : ils mettent en relation le « poids » des mots avec ceux des documents. Avec le développement du web sémantique, de plus en plus de contenus sont indexés avec des métadonnées ou des taxinomies (ontologies). Cela permettra un jour de poser directement sa question en langue naturelle et d’avoir une réponse précise plutôt qu’une liste de pages. En 1994, Internet compte plus d’un million d’ordinateurs connectés.
Le terme métadonnée (ou metadata) apparaît pour décrire des ressources sur Internet.
Comme sa signification d’origine l’indique (donnée à propos de donnée), c’est une donnée servant à définir ou décrire une autre donnée quel que soit son support (papier ou électronique). Un exemple type est d’associer à une donnée la date à laquelle elle a été produite ou enregistrée, ou associer à une photo les coordonnées GPS du lieu où elle a été prise. Les métadonnées sont à la base des techniques du Web sémantique. Elles sont au cœur du fonctionnement d’Internet, devenu « le » réseau mondial, après les précurseurs que furent l’Arpanet américain, né en 1969 ou le réseau français Cyclades né en 1971, tous deux disparus. La notion de métadonnées utilisables par les ordinateurs sur le Web fut proposée dès 1994, par l’inventeur du Web, Tim Berners-Lee, lors de la conférence WWW 94 où fut annoncée la création du W3C. Les métadonnées sont en effet au cœur de l’architecture Web. En 1995, les métadonnées firent l’objet d’un atelier à Dublin (Ohio), pour les méthodes de recherche d’information. En 1999, le W3C définit le cadre permettant de créer un réseau de métadonnées acceptant le langage XML : Resource Description Framework (RDF).
Jabberwacky simule une conversation humaine.
Rollo Carpenter développe le chat-bot (robot de conversation) Jabberwacky pour « simuler une conversation humaine d’une façon intéressante, divertissante et drôle ». C’est une première tentative de création d’une intelligence artificielle en interaction avec l’humain.
Ce standard ISO de gestion de base de données permet de représenter une masse d’informations.
SGML est surtout un métalangage, un formalisme permettant de décrire des langages, autrement dit d’enrichir un texte à l’aide de balises pour le structurer et le mettre en forme (titres, chapitre, italique…). Il rationalise de nombreux systèmes documentaires. Le plus connu est HTML, utilisé pour décrire les pages du web.
On les appelle les ordinateurs de cinquième génération.
Les recherches sur des ordinateurs de cinquième génération doivent permettre d’aboutir à des solutions matérielles et logicielles capables de comprendre le langage naturel, de traduire simultanément des langues étrangères, interpréter des images et raisonner comme les humains. Les recherches initiées au Japon par le MITI ont ensuite été financées avec le projet anglais Alvey et la Strategic Computing Initiative de la DARPA.
Des supercalculateurs qui ont fait date.
Seymour Cray, cofondateur de Cray Research en 1972, crée le supercalculateur Cray-1, un mythe dès sa sortie. Avec une fréquence de 80 MHz, il peut produire deux résultats flottants toutes les 12,5 nanosecondes et sa mémoire comporte un million de mots de 64 bits. Il peut calculer 150 millions d’opérations à virgule flottante par seconde. C’est une machine vectorielle qui applique au calcul le principe du travail à la chaîne : chaque opérateur (additionneur, multiplicateur…) est décomposé en étapes élémentaires qui peuvent traiter en même temps des données différentes. Il se vendra 85 exemplaires de Cray 1 dans le monde. Les organismes de recherche mais aussi l’industrie, aéronautique, automobile, en acquièrent. Dix ans plus tard, en 1985, Seymour Cray conçoit le Cray-2. Il comporte huit processeurs et une mémoire colossale de 2 Go. C’est le premier calculateur à dépasser en puissance de calcul le gigaflops (milliard d’opérations par seconde). Son dégagement de chaleur est tel qu’il doit être refroidi : il baigne dans un liquide réfrigérant.)
Ces ordinateurs sont spécialisés dans l’exécution de programmes Lisp.
Ces machines furent les premières stations de travail mono-utilisateur commercialisées (auparavant, les ordinateurs étaient partagés par plusieurs utilisateurs), à commencer par celle de Richard Greenblatt et Thomas Knight, programmeurs au laboratoire d’intelligence artificielle du MIT. Les programmes d’intelligence artificielle des années 1960 et 1970 nécessitaient des ordinateurs puissants, ce que permit la technologie des circuits intégrés à la fin des années 1960, à moindre coût. Ils étaient implémentés quasiment exclusivement avec le langage de programmation Lisp, alors que tout le matériel du commerce était conçu et optimisé pour les langages de type assembleur ou Fortran. Avec l’hiver de l’intelligence artificielle et la révolution des PC, des ordinateurs de bureau devinrent capables d’exécuter des programmes Lisp à moindre coût et plus vite que les machines Lisp. La plupart des constructeurs de machines Lisp cessèrent leurs activités au début des années 1990 (on comptait environ 7 000 unités en 1988).
Créé par des français, c’est un des principaux langages de programmation logique.
Le but d’Alain Colmerauer et Philippe Roussel était de créer un langage de programmation où seraient définies les règles logiques attendues d’une solution et de laisser le compilateur la transformer en séquence d’instructions. L’un des avantages attendus était une facilité accrue de maintenance des applications, l’ajout ou la suppression de règles au cours du temps n’obligeant pas à réexaminer toutes les autres. Prolog est utilisé en intelligence artificielle et dans le traitement linguistique par ordinateur (principalement langues naturelles). Dès le départ, Prolog s’est adressé au domaine des bases de données relationnelles, auquel il apporte une grande souplesse en matière de requêtes, dès lors qu’elles sont déductibles des faits : elles deviennent ainsi des bases de données déductives.
Avec ce microprocesseur, Intel invente la puissance en miniature.
Ce calculateur ou CPU (Central Processing Unit) 4 bits comporte 2 300 transistors sur une plaquette de 4,2 mm par 3,2 mm. Sa puissance d’exécution est de 60 000 opérations par seconde à une fréquence maximale de 740 kHz. Prouesse de miniaturisation, il est comparable à l’ENIAC qui occupe 167 m2 pour 30 tonnes. Pour obtenir la densité requise, les ingénieurs d’Intel ont utilisé la technologie MOS (Metal Oxyd Semiconductor) qui venait juste d’être inventée.
C’est le premier robot anthropomorphe.
Construit à l’université de Waseda au Japon, il contenait un système de contrôle des membres, un système de vision et un autre pour la conversation. En 1984, l’université poursuit dans cette voie et construit Wabot-2, un androïde musicien capable de communiquer avec une personne réelle, de lire une partition et de jouer des morceaux de difficulté moyenne sur un orgue électronique.
La mission Apollo emporte le premier ordinateur à avoir recours aux circuits intégrés.
L’Apollo Guidance Computer (AGC) est l’ordinateur embarqué de navigation et de pilotage qui accompagne les trois astronautes dans leur voyage. Il ressemble plutôt à une calculatrice. Il fait à peu près la taille de deux feuilles de papier, sur 5 centimètres d’épaisseur. Les circuits intégrés avaient été inventés, quant à eux, en 1958, par Jack St. Clair Kilby. Appelé aussi puce, le circuit intégré reproduit une ou plusieurs fonctions électroniques plus ou moins complexes. Il intègre souvent plusieurs types de composants électroniques de base dans un volume réduit. Les premiers ordinateurs basés sur des circuits intégrés, sont les B2500 et B3500 qui marquent, en 1968, le début de la troisième génération d’ordinateurs après celle à tubes électroniques puis à transistors.
C’est une petite révolution par ses performances et la simplicité de son architecture.
Control Data Corporation (CDC), cofondé par Seymour Cray en 1957, conçoit ce superordinateur capable de calculer en virgule flottante avec des opérateurs ultrarapides et travaillant en parallèle. Avec une fréquence de 10 MHz et de 3,3 mégaflops (MFLOPS) soit 3,3 millions d’instructions par seconde en addition/soustraction (un peu moins en multiplication/division), il a été l’ordinateur le plus puissant pendant 5 ans, avant d’être dépassé par son successeur, le CDC 7600 en 1969, dix fois plus puissant. Le CDC 6600 a été utilisé en particulier dans les laboratoires de recherche du Département de l’Énergie des États-Unis et du Laboratoire national de Los Alamos, sans oublier la NASA. En France, le CEA s’en est aussi équipé. Le CDC 7600 restera, à son tour, pendant cinq ans l’ordinateur le plus puissant. A noter que l’air pulsé ne suffit plus à refroidir ses modules : il est refroidi par circulation d’un liquide.
La série 360 d’IBM a été un énorme succès pour l’époque.
Cet ordinateur a été un tournant décisif dans l’histoire technique de l’informatique. Tirant parti des progrès considérables dans la technologie des semi-conducteurs, cette machine comportait de nombreuses innovations, dont la compatibilité entre machines par la microprogrammation. La série 360 a été un énorme succès. Elle a massivement contribué à imposer les ordinateurs dans le monde tant scientifique que des affaires.
L’ordinateur prend le dessus sur l’homme grâce à un programme d’apprentissage automatique.
C’est le programme d’Arthur Samuel qui bat le champion du Connecticut au jeu de dames. Samuel donnait la définition suivante de l’apprentissage automatique: “champ d’étude qui donne aux ordinateurs la capacité d’apprendre sans être explicitement programmés”, un changement de paradigme dans la façon de modéliser des phénomènes, alternative à la méthode scientifique.
Inventés en 1947, les transistors remplacent les fragiles et encombrants tubes électroniques (ou tubes à vide).
Baby (ou Manchester Mark I) est le premier à avoir un programme enregistré en mémoire centrale.
C’est le premier ordinateur selon le modèle d’architecture de John von Neumann, avec une séparation du contrôle et de l’exécution dans les processeurs et une mémoire unique contenant programmes et données. Ce modèle de von Neumann régit toujours les ordinateurs actuels.
Ce calculateur de l’université de Pennsylvanie était capable d’exécuter tout algorithme.
Avec ses 17 468 tubes électroniques, il tournait à 100 kHz, était composée de 20 calculateurs fonctionnant en parallèle et pouvait effectuer 100 000 additions ou 357 multiplications par seconde, en système décimal. Il était programmé à l’aide d’interrupteurs et de cordons enfichés dans des matrices de prises.
Précurseur des machines de calcul intensif, le Colossus, inventé par Turing, a été conçu pour casser les codes secrets nazis.
Installé près de Londres, le Colossus lisait des rubans perforés à la vitesse de 5 000 caractères par seconde. Premier calculateur totalement électronique, il était à base de 2000 tubes électroniques (ou à vide) et non des relais. Fondé sur le système binaire, il était néanmoins difficilement programmable.
Cette machine et les suivantes furent précurseurs de nombreuses avancées technologiques.
Construit par l’allemand Konrad Zuse à Berlin, le Z1 et les machines de cette série sont électromécaniques ; le programme est stocké sur cartes perforées. En 1941, le Z3, troisième ordinateur, avec 2 600 relais électriques est le premier calculateur programmable fonctionnel ; il utilisait l’arithmétique binaire et les nombres à virgule flottante (ce qui signifie que le nombre 12 500 000 est représenté, en système décimal, par 1,25.107), ce qui facilite les calculs pour les nombres très petits ou très grands. Le Z3 pouvait enregistrer 64 nombres de 22 bits, avait une fréquence de 5,33 Hz et réalisait quatre additions par seconde ou 15 multiplications par minute. Un bombardement l’a détruit. Zuse le reconstruit en 1961.
Hermann Hollerith adapte la carte perforée, développée dès 1725 pour les ateliers de tissage, au stockage de données.
Peu de temps après, en 1896, il fonde la Tabulating Machine Company, qui fusionnera avec d’autres pour devenir l’International Business Machine en 1924, mieux connue sous le nom… d’IBM. Les cartes perforées (aussi connues sous le nom de cartes IBM ou de cartes Hollerith) sont des feuilles cartonnées contenant des informations sous la forme de trous placés à certains endroits précis. La carte d’Hollerith consistait en 80 colonnes contenant chacune 12 points de perforation, pour une capacité de stockage maximum de 960 octets. Les cartes perforées connurent leur plus grand succès dans les années 1930-1950, après quoi elles furent progressivement remplacées par les bandes magnétiques.