Open AI bringt GPT-4o auf den Markt, ein neues, schnelleres und verbessertes Modell der künstlichen Intelligenz: für alle verfügbar und kostenlos

UND Mira Muratider Chief Technology Officer von Offene KI, um die Ehre für eine Veranstaltung zu erweisen, die sie sofort in die Hände bekamen. Weder die Suchmaschine noch Gpt-5 werden erwähnt. Es ist noch nicht Zeit. Wir befinden uns in einer Zwischenphase, in der das Ziel darin besteht, die Chancen für zahlende Nutzer und Nutzer, die die generative künstliche Intelligenz des von Sam Altman geführten Unternehmens kostenlos nutzen, „anzugleichen“. «Ein wichtiger Teil unserer Mission ist es, unsere Werkzeuge für jedermann verfügbar zu machen.“sagt Mira Murati bei der Vorstellung eines neuen Modells namens Gpt-4o (Es ist keine Null, sondern der Buchstabe „o“, der für „omni“ steht). Während Sam Altman zu X kommentiert er: „Unser bestes Modell aller Zeiten. Es ist intelligent, schnell und nativ multimodal und … für alle Benutzer verfügbar.“

Was Gpt-4o kann

Dieses Modell wird genau zum Tragen verwendet Die Leistung von GPT-4 auf allen Plattformen von Open AI. Wird verfügbar sein “in den nächsten Wochen“, kostenlos. Verbesserte Geschwindigkeit, aber vor allem stimmliche Interaktion, im Mittelpunkt aller während der Veranstaltung gezeigten Demos. Sie waren Latenzzeiten reduziert in den Antworten, die nun flüssig und natürlich wirken. Als ob Sie ein Gespräch mit einer anderen Person führen würden. „Es kann in nur 232 Millisekunden auf Audioeingaben reagieren, mit einem Durchschnitt von 320 Millisekunden, ähnlich der menschlichen Reaktionszeit (öffnet sich in einem neuen Fenster) in einem Gespräch“, lesen wir auf der Website. Und wie es in menschlichen Gesprächen geschieht, Wir können unseren Roboter-Gesprächspartner unterbrechen, um Details hinzuzufügen oder besser zu erklären, was wir von Ihnen wollen. Mira Murati gibt an, dass Geschwindigkeits- und Qualitätsverbesserungen vorgenommen wurden 50 Sprachen. Das Model kann unsere Stimme verstehen, aber auch, was wir ihr zeigen Smartphone-Kamera – im Fall der mobilen App – oder was Wir projizieren auf die Leinwand des PCs: Es gibt eine neue Desktop-App. Im Allgemeinen ist es dazu in der Lage Vernunft durch Audio-, Video- und Fotoeingaben und offensichtlich textlich. Multimodal, wie Altman es definierte. Die Demos zeigen eine Simultanübersetzung – unter anderem vom Italienischen ins Englische und umgekehrt – die beim Lösen einer Gleichung hilft (aber ohne das Ergebnis zu nennen, hilft sie uns, die verschiedenen Schritte zu verstehen) und das Erzählen einer Geschichte mit lustigen, dramatischen, Roboter, gesungen. Kleine Farbnoten: Open AI organisierte seine Veranstaltung 24 Stunden vor der Google I/O, um zu zeigen, dass es keinen Konkurrenten hinterherhinkt; Alle verwendeten Geräte stammen aus der Apple-Reihe. Ist das ein erster Hinweis auf bevorstehende Kooperationen?

PREV So werden wir die ersten Sterne im Universum sehen können
NEXT Square Enix bestätigt Entlassungen in westlichen Geschäftsbereichen im Rahmen der Umstrukturierung