Δεν έχει αποκαλύψει πόσος εξοπλισμός χρειάστηκε, οπότε η Nvidia μάλλον μπορεί να κοιμάται ήσυχη
Η κινεζική εταιρεία Zhipu AI ισχυρίζεται ότι εκπαίδευσε ένα νέο μοντέλο εξ ολοκλήρου με hardware της Huawei και ότι είναι η πρώτη εταιρεία που κατασκευάζει ένα προηγμένο μοντέλο αποκλειστικά πάνω σε κινεζικό hardware.
Η Zhipu, η οποία αυτοπαρουσιάζεται ως Z.ai και λειτουργεί ένα chatbot στη συγκεκριμένη διεύθυνση, προσφέρει αρκετά μοντέλα με την ονομασία General Language Model (GLM).
Την Τετάρτη ανακοίνωσε το GLM-Image, το οποίο —όπως αναφέρει— χρησιμοποιεί μια «ανεξάρτητα ανεπτυγμένη» υβριδική αρχιτεκτονική «autoregressive + diffusion decoder», που επιτρέπει τη συν-δημιουργία μοντέλων εικόνας και γλώσσας.
Η εταιρεία λέει ότι αυτό αποτελεί σημαντική πρόοδο σε σχέση με το Nano Banana Pro, ένα AI παραγωγής εικόνων.
Υποδομή: Atlas servers, Kunpeng CPUs και Ascend AI επιταχυντές
Η ανάρτηση αναφέρει επίσης ότι η Z.ai ανέπτυξε το μοντέλο χρησιμοποιώντας τον Ascend Atlas 800T A2, έναν server της Huawei που μπορεί να «τρέξει» τέσσερις επεξεργαστές Kunpeng 920 με 64 ή 48 πυρήνες.
Οι επεξεργαστές της Huawei χρησιμοποιούν Arm cores δικού της σχεδιασμού.
Οι servers χρησιμοποιούν επίσης τους AI επεξεργαστές Huawei Ascend 910.
Το πιο πρόσφατο μοντέλο Ascend είναι το 910C (2025), το οποίο —σύμφωνα με τη Huawei— «μπορεί να επιτύχει περίπου 800 TFLOPS υπολογιστικής ισχύος ανά κάρτα σε FP16, δηλαδή περίπου 80% της ισχύος του NVIDIA H100 (κυκλοφόρησε το 2022).»
Αρχιτεκτονική GLM-Image, σύμφωνα με το Hugging Face
Στο model-mart Hugging Face, η Zhipu περιγράφει την αρχιτεκτονική του GLM-Image ως αποτελούμενη από δύο μέρη:
- Autoregressive generator: μοντέλο 9B parameters με αρχικοποίηση από το GLM-4-9B-0414, με διευρυμένο λεξιλόγιο ώστε να ενσωματώνει visual tokens. Αρχικά παράγει μια συμπαγή κωδικοποίηση περίπου 256 tokens και στη συνέχεια επεκτείνεται σε 1K–4K tokens, που αντιστοιχούν σε εξόδους υψηλής ανάλυσης 1K–2K.
- Diffusion Decoder: αποκωδικοποιητής 7B parameters βασισμένος σε single-stream DiT αρχιτεκτονική για αποκωδικοποίηση εικόνας σε latent-space. Διαθέτει επίσης ένα κειμενικό module Glyph Encoder, το οποίο βελτιώνει σημαντικά την ακριβή απόδοση κειμένου μέσα στις εικόνες.
Η εταιρεία υποστηρίζει ότι «ολόκληρη η διαδικασία, από το preprocessing των δεδομένων έως την εκπαίδευση μεγάλης κλίμακας» πραγματοποιήθηκε σε αυτόν τον Atlas server, και ότι το ντεμπούτο του μοντέλου αποδεικνύει «τη σκοπιμότητα εκπαίδευσης cutting-edge μοντέλων σε μια εγχώριας παραγωγής full-stack υπολογιστική πλατφόρμα».
Σημαντικό, αλλά με κρίσιμα κενά
Με έναν τρόπο, αυτό όντως είναι σημαντικό. Όμως η Zhipu δεν αποκάλυψε:
- πόσους servers ή επιταχυντές χρησιμοποίησε για να δημιουργήσει το GLM-Image
- πόσο γρήγορα ολοκληρώθηκε η εκπαίδευση
Έτσι, η εταιρεία μπορεί να υποστηρίζει ότι ανέπτυξε μοντέλο με τοπική τεχνολογία —μια μορφή «σοφιστείας» που παραβλέπει τη συμβολή της Arm στους Kunpeng— αλλά δεν δίνει ενδείξεις για το αν το hardware της Huawei πέτυχε την εκπαίδευση με ταχύτητα ή κόστος που θα ανάγκαζε τον υπόλοιπο κόσμο να «ανησυχήσει» ότι η Κίνα απέκτησε προβάδισμα.
Γιατί παρ’ όλα αυτά η είδηση μετράει
Ακόμα κι αν το σύστημα της Zhipu δούλευε με μέτριες ταχύτητες, η είδηση ενός αμιγώς κινεζικού μοντέλου παραμένει αξιοσημείωτη, ιδίως αν επαληθευτούν οι προβλέψεις ότι πολλά μελλοντικά μοντέλα θα είναι μικρότερα και προσανατολισμένα σε εξειδικευμένους τομείς.
Αν η Κίνα πλέον έχει την ικανότητα να φτιάχνει τέτοια μοντέλα χωρίς hardware της Nvidia ή της AMD, αυτό αποτελεί απειλή για τα μελλοντικά έσοδα αυτών των εταιρειών σχεδίασης chips.
Άλλη μία απειλή για τους δύο γίγαντες των GPUs είναι οι αυστηροί έλεγχοι εξαγωγών που ανακοινώθηκαν χθες, οι οποίοι σημαίνουν ότι η Ουάσινγκτον θα αξιολογεί κάθε αίτηση πώλησης συγκεκριμένων GPUs σε Κινέζους αγοραστές.
Open source και γεωπολιτικές προεκτάσεις
Το GLM-Image είναι open source, άρα διατίθεται δωρεάν.
Υπό το πρίσμα της άποψης του think tank ASPI πως η Κίνα χρησιμοποιεί την AI για να εξάγει τον πολιτισμό και τις αξίες της, προτείνεται τα κράτη να «αποτρέψουν τα κινεζικά AI μοντέλα, τους κανόνες διακυβέρνησης και τις βιομηχανικές πολιτικές από το να διαμορφώσουν τα παγκόσμια τεχνολογικά οικοσυστήματα και να παγιώσουν τον ψηφιακό αυταρχισμό».
Τι σημαίνει πρακτικά ένα «all-Chinese stack» για την αγορά AI
Η προσπάθεια της Z.ai να εκπαιδεύσει μοντέλο σε υποδομή Huawei Ascend δεν είναι απλώς τεχνική επίδειξη· είναι δείκτης στρατηγικής αυτάρκειας.
Όσο οι περιορισμοί εξαγωγών σκληραίνουν, οι κινεζικές εταιρείες έχουν κίνητρο να μεταφέρουν κρίσιμα workloads σε εγχώρια chips, ακόμα κι αν το κόστος/απόδοση υστερεί προσωρινά.
Επιπτώσεις σε κόστος, απόδοση και διαθεσιμότητα
Στην πράξη, οι οργανισμοί κοιτούν τρεις μεταβλητές: TFLOPS, bandwidth μνήμης και οικοσύστημα λογισμικού. Ακόμη κι αν ένας επιταχυντής πλησιάζει το H100 σε FP16, το πραγματικό bottleneck συχνά είναι:
- η ωριμότητα των kernels (π.χ. attention, fused ops),
- η σταθερότητα των drivers,
- και η διαθεσιμότητα εργαλείων profiling/monitoring.
Αν η Huawei κλείσει το χάσμα στο software stack, τότε η «επαρκής» απόδοση μπορεί να γίνει οικονομικά ελκυστική σε μαζικές εκπαιδεύσεις ή σε niche μοντέλα για συγκεκριμένους κλάδους (ιατρική απεικόνιση, βιομηχανικός έλεγχος, e-commerce).
Open source: πλεονέκτημα διάχυσης, αλλά και ρίσκο
Το ότι το GLM-Image είναι ανοιχτού κώδικα βοηθά στη γρήγορη υιοθέτηση (developers, fine-tuning, κοινότητα). Ταυτόχρονα, δημιουργεί ερωτήματα για ασφάλεια, δικαιώματα δεδομένων, και πολιτικές χρήσης.
Για επιχειρήσεις εκτός Κίνας, η αξιολόγηση θα πρέπει να περιλαμβάνει: άδειες χρήσης, provenance datasets, και μηχανισμούς content filtering.
Τι να παρακολουθήσουμε μέσα στο 2026
- Benchmarking σε κοινά suites (latency, throughput, ποιότητα εικόνας/κειμένου).
- Κόστος ανά training run (ρεύμα, ψύξη, χρόνος).
- Συμβατότητα με PyTorch/ONNX και εργαλεία MLOps.
- Διαθεσιμότητα hardware σε κλίμακα (χιλιάδες accelerators), όχι μόνο σε demo setups.
