Hold
Falcon 180B ist ein superleistungsfähiges Sprachmodell mit 180 Milliarden Parametern, trainiert auf 3,5 Billionen Token. Es steht derzeit an der Spitze der Hugging Face-Rangliste für vorab trainierte Open Large Language-Modelle und ist sowohl für die Forschung als auch für die kommerzielle Nutzung verfügbar. Falcon 180B