Google hat kürzlich PaLM 2 vorgestellt, ein nächste Generation-Sprachmodell, das auf der Legacy von Google's Durchbrüchen in der Maschinenlernen-Forschung und verantwortungsvoller KI aufbaut. PaLM 2 übertrifft seine Vorgängermodelle in verschiedenen Aufgaben, wie z.B. fortgeschrittenen Reasoning-Aufgaben, Code- und Mathematik-Aufgaben, Übersetzung und Mehrsprachigkeit, sowie natürlicher Sprachgenerierung.
PaLM 2 kann komplexe Aufgaben in einfache Unter-Aufgaben zerlegen und versteht die Nuancen der menschlichen Sprache besser als seine Vorgängermodelle. Es exceliert bei der Verarbeitung von Rätseln und Idiomen, die ein Verständnis von mehrdeutigen und figurativen Wortbedeutungen erfordern.
Darüber hinaus ist PaLM 2 in der Lage, mehrsprachige Texte zu verstehen, zu generieren und zu übersetzen, einschließlich Redewendungen, Gedichten und Rätseln in über 100 Sprachen. Es wurde auch auf eine große Anzahl öffentlich zugänglicher Quellcode-Datensätze trainiert, was es ermöglicht, gängige Programmiersprachen wie Python und JavaScript zu beherrschen, sowie speziellen Code in Sprachen wie Prolog, Fortran und Verilog zu generieren.
PaLM 2 wurde durch die Kombination von drei Forschungsfortschritten in großen Sprachmodellen entwickelt: compute-optimal scaling, einer verbesserten Datensatzmischung und einer aktualisierten Modellarchitektur. Es wurde auf einer Vielzahl von Aufgaben evaluiert, einschließlich WinoGrande und BigBench-Hard, und erreichte state-of-the-art-Ergebnisse.
PaLM 2 wurde in Übereinstimmung mit Googles Ansatz zur verantwortungsbewussten Entwicklung von KI entwickelt. Alle Versionen von PaLM 2 werden sorgfältig auf potenzielle Schäden und Vorurteile evaluiert und werden in anderen state-of-the-art-Modellen wie Sec-PaLM verwendet.
PaLM 2 wird in verschiedenen Größen verfügbar sein, von der kleinsten bis zur größten, um es für eine Vielzahl von Anwendungsfällen leicht einsetzen zu lassen. Es wird auch in 25 neuen Google-Produkten und -Funktionen verwendet, einschließlich Bard und Workspace-Funktionen.
* KI-Zusammenfassungen können Fehler enthalten. Alle Angaben ohne Gewähr.