On-Chip-beschleunigter KI-Prozessor

Die rasanten Entwicklungen im Bereich künstliche Intelligenz verlangen nach immer leistungsfähigerere Hardware, um die komplexen Berechnungen durchführen zu können. Genau diese Leistung soll der jüngt von IBM auf der jährlichen Hot-Chips-Konferenz angekündigte und auf KI-Anwendungen in Echtzeit optimierte Telum-Chip liefern. [...]

Der voraussichtlich 2022 verfügbare Chip enthält 22 Milliarden Transistoren und 30 Kilometer an Leiterbahnen verteilt auf 17 Metallschichten. (c) IBM
Der voraussichtlich 2022 verfügbare Chip enthält 22 Milliarden Transistoren und 30 Kilometer an Leiterbahnen verteilt auf 17 Metallschichten. (c) IBM

Seit Langem führt IBM mit den meisten Patenten pro Jahr die Liste des US-Patentamts an. In den letzten drei Jahren werden viele davon bei der Entwicklung des Telum-Prozessors angefallen sein, der voraussichtlich in der ersten Hälfte des Jahres 2022 verfügbar ist. Wie bereits beim Tensor-Chip, den Google diesen August angekündigt hat, heißt der Technologiepartner auch beim Telum-Prozessor Samsung – denn der Telum ist in 7-nm-Halbleitertechnik im von den Koreanern entwickelten EUV-Technologieknoten (EUV=extreme ultra-violet) gefertigt. Darüber hinaus arbeitet der Telum als erster IBM-Chip mit vom IBM Research AI Hardware Center entwickelter Technologie.

Während der Tensor-Chip allerdings bei Smartphones zum Einsatz kommen soll, handelt es sich beim Telum um einen Serverprozessor, der im Vergleich zu bereits bestehenden Chips die zehnfache Rechenleistung pro Core für KI-Aufgaben bieten soll. Damit soll er insbesondere in der Betrugserkennung, bei Entscheidungen über Kreditvergaben, Clearing, Geschäftsabwicklung, Geldwäschebekämpfung und Risikoanalyse enorme Fotschritte ermöglichen. Dementsprechend sollen KI-Algorithmen, wie Machine Learning und Deep Learning, Unternehmen beispielsweise  in die Lage versetzen, die bestehende Betrugserkennung weiterzuentwickeln oder Lösungen vorzuschlagen, um Abwicklungsprozesse effizienter zu gestalten. Auch können KI-Modelle überall erstellt und trainiert werden.

In einer von IBM in Zusammenarbeit mit Morning Consult in Auftrag gegebenen Studie gaben 90 Prozent der Befragten an, dass die Nutzung von Transaktionsdaten sowie die Möglichkeit, KI-Projekte dort zu erstellen und durchzuführen, wo sich diese Daten befinden, entscheidend sind, um Echtzeit-Einblicke in Geschäftsprozesse zu erhalten. IBM Telum ist nun so konzipiert, dass Anwendungen effizient dort ausgeführt werden können, wo sich die Daten befinden. Zudem hilft der Prozessor dabei, herkömmliche KI-Ansätze in Unternehmen zu überwinden, die in der Regel erhebliche Speicher- und Datenverschiebungskapazitäten erfordern, um Inferenzen zu verarbeiten. Mit Telum befindet sich der Beschleuniger in unmittelbarer Nähe zu geschäftskritischen Daten und Anwendungen, was bedeutet, dass Unternehmen ein hohes Inferenzvolumen für sensible Echtzeit-Transaktionen durchführen können, ohne auf KI-Lösungen außerhalb der Plattform zurückgreifen zu müssen, was die Leistung beeinträchtigen kann. Unternehmen können auch KI-Modelle außerhalb der Plattform erstellen und trainieren und auf einem Telum-fähigen IBM-System zur Analyse bereitstellen und inferieren.

Ganzheitliches Chipdesign

Der ganzheitliche Ansatz beim Chipdesign umfasst alle Bereiche, beginnend auf der Siliziumebene über Hardware, Firmware, Betriebssystem bis hin zur Middleware. Mit Telum sollen Zehntausende von KI-integrierten Transaktionen pro Sekunde verarbeiten werden können. Der Chip enthält acht Prozessorkerne mit einer tiefen superskalaren Out-of-Order-Befehlspipeline und ist mit mehr als fünf GHz getaktet. Die neu gestaltete Cache- und Chip-Verbindungsinfrastruktur bietet 32 MB Cache pro Kern und ermöglicht den Aufbau von Systemen mit bis zu 256 physischen Kernen. Der Chip enthält insgesamt 22 Milliarden Transistoren und 30 Kilometer an Leiterbahnen verteilt auf 17 Metallschichten.


Mehr Artikel

Be the first to comment

Leave a Reply

Your email address will not be published.


*