GLM-4 と GLM についてどう思いますか?

GLM-4 と GLM についてどう思いますか?

閱讀全文
请先 登录 后评论
  • 1 フォロー
  • 0 集める 87 浏覽
  • ユーザー に質問しました 2024-01-16 21:18:24

1 回答

厚德載物
擅長:AI

アリババとテンセントが出資するAI企業のZhipu AIは、自社開発した新型の第4世代マルチモーダルベース大型モデルGLM-4シリーズを北京で発表、従来比で性能が60%近く向上したと発表した。同社は、「特に中国語能力はGPT-4に匹敵する」とモデル性能がGPT-4に直結しており、GLMのパーソナライズエージェントモデルなどの製品も発表した。


同時に、Zhipu AIは本日、Zhipuとエコロジカルパートナーが立ち​​上げた総投資額10億元の大規模モデル起業家ファンド「プランZ」も発表した。これは、特に大規模モデルの独自の革新をサポートするためであり、大規模モデルのアルゴリズムをカバーし、基礎となるものをカバーする。オペレーター、チップ最適化、業界大規模モデルおよびスーパーアプリケーションなど。


Zhipu AI Company の CEO、Zhang Peng 氏は、GLM-4 のリリースと発売は Zhipu AI の大規模モデルの開発における重要な進歩であると述べました。 同氏は、「AGIを目指すために、同社は3~6か月ごとにアップデートとアップグレードを行っている。前世代のスマートスペクトルはモデル機能マトリックスのベンチマークを解決していたが、今回はモデル機能は基本的にGPT-4と一致している」と強調した。 「GLM-4 の基本機能はすでに GPT-4 に匹敵します。」



Zhang Peng 氏、Zhipu AI Company CEO


Zhipu AIは2019年に設立されたと報じられており、清華大学コンピューターサイエンス学部の知識工学研究室チームから誕生し、清華大学の知識成果を変革する研究と技術開発を目的としたスタートアップ企業です。同社CEOのZhang Peng氏は清華大学コンピューターサイエンス学部を卒業し社長を務めており、Wang Shaolan氏は清華大学のイノベーションの第一人者博士、Tang Jie氏は清華大学コンピューター学部教授である。 、中国最大の事前トレーニングモデルであるWu Dao 2.0の開発にも参加しました。


2020 年、Zhipu AI は GLM 事前トレーニング アーキテクチャの研究開発を開始し、大規模モデル作成における中国のイノベーションに焦点を当てて新世代の認知知能大規模モデルの作成に取り組み、100 億パラメータ モデル GLM-10B をトレーニングしました。 2021年にはMoEを活用し、このアーキテクチャは数兆のスパースモデルの学習に成功し、2022年には1,300億レベルの超大規模事前学習済み汎用モデルGLM-130Bを発表し、これを利用して大規模なモデルプラットフォームを構築し、製品マトリックス。


Zhipu AIは2023年初めに1000億ベースに基づく対話モデルChatGLMを立ち上げ、シングルカードモデルChatGLM-6Bなどをオープンソース化し、個人開発者やエンタープライズアプリケーションに導入した。 Zhipu は 6 月に、6B、130B、12B (120 億パラメータ)、32B、66B などのパラメータを備えたモデルを含む ChatGLM2 をリリースし、推論速度が 42% 向上しました。 Zhang Peng 氏によると、ChatGPT の GPT-4 バージョンと比較して、ChatGLM2-12B、32B、66B のパフォーマンスはそれぞれ 16%、36%、280% 向上しました。


2023 年 10 月、Zhipu AI は ChatGLM3-1.5B、3B、6B のパラメータ バージョン (15 億、30 億、60 億) を発表しました。これらはマルチモーダル理解、コード モジュール、ネットワーク検索、その他の機能が向上しており、相対的に、最高のオープンソース モデルの推論速度は 2 ~ 3 倍向上します。 同時に、統合された自社開発の AgentTuning テクノロジーに基づいており、インテリジェントな計画と実行において ChatGLM-2 よりも 1000% 優れています。 さらに、ChatGLM3 は Huawei の Ascend エコシステムを使用して、計算能力の推論速度を 3 倍以上向上させます。 同時に、同社は商用化を検討しており、発売が承認されたZhipu Qingyan、高効率コードモデルCodeGeeXなどを含むAIGC(生成AI)モデルと製品マトリックスの構築も行っている。


資金調達に関しては、Zhipu AI は設立以来 4 年以上で 4 回の資金調達を完了しており、投資家には Legend Capital、Qiming Venture Partners、China Science and Technology Star、Meituan、Ant、Alibaba、Tencent、Xiaomi、Kingsoft が含まれます。 、Shunwei、Boss Direct Recruitment、TAL、Sequoia、Hillhouse、その他多くの機関からの昨年の融資額は25億元を超えました。 現在、Zhipu AIの評価額は100億を超え、国内AI分野におけるユニコーン企業となっている。


公開情報によると、これまでのところ、Zhipu AI オープンソース モデルは Hugging Face で世界中で 1,100 万回以上ダウンロードされ、GitHub で 50,000 個以上のスターを獲得しています。


今回、Zhipu AI の最初のテクノロジーオープンデー (Zhipu DevDay) では、主に 3 つの重要なニュースが発表されました: マルチモーダル モデルの GLM-4 シリーズのリリース、新しい GLM-4 All Tools (すべてのツール) の発売、GLM のパーソナライゼーションインテリジェントなエージェントのカスタマイズ機能、複数の大規模モデルのオープンソースファンドの立ち上げと共同設立、商業化の進展により、Smart Spectrum AI GLM シリーズ モデルのエコロジーが拡大します。


まずはGLM-4シリーズ。 具体的には、GLM-4 は 128k のコンテキスト ウィンドウの長さをサポートでき、単一のプロンプト ワードで処理できるテキストは 300 ページに達します。 同時に、推論速度が速くなり、より高い同時実行性がサポートされ、推論コストが大幅に削減され、ヴィンセント グラフやマルチモーダル理解などの側面がある程度強化されました。


Zhang Peng氏によると、中国語の文章作成、数学的計算、論理的推論などをサポートするAlignBenchアライメント能力ベンチマークテストにおいて、GLM-4はGPT-4の95%~116%のレベルに達しており、能力に関しては中国語と英語の指示に従う場合、GLM-4 は基本的に GPT-4 のレベルの約 80% に達することができます。要約、情報抽出、および複雑な推論機能をサポートする LongBench ベンチマーク テストでは、GLM-4 128k バージョンは 81.1 に達しました。ポイントはGPT-4(71.2)を上回った。



第二に、GLM-4 のオール ツールは、インテリジェント エージェント機能のまったく新しい表示であり、ユーザーの意図に基づいて複雑な指示を自動的に理解し、計画することができます。この機能は完全に自動であり、Web ブラウザー、コードの説明、マルチモーダル テキストを自由に呼び出すことができます。図やファイルの処理、データ分析、チャートの描画、その他の複雑なタスク、GLM のパーソナライズされたエージェントのカスタマイズ機能は、ユーザーが簡単なプロンプトの単語による指示で独自の GLM エージェントを作成できるようにサポートし、自動コード作成や教師による豊富で興味深い指導計画の作成を支援します。 . 授業計画デザイナー、またはキーワードなどに基づいてロゴをすばやく生成できるペインター。


張鵬氏は会議で、GLMsモデルのアプリケーションストア開発者共有計画も同時に発表すると発表した。


最後に、ファンドとエコロジーに関して、Zhipu AI は合計 4 つのファンド プロジェクトを発表しました: 1. CCF-Zhipu Large Model Fund と SMP-Zhipu Large Model Interdisciplinary Fund を共同で立ち上げ、昨年は全国 30 以上の大学に資金を提供しました。参加した 41 の研究プロジェクトは、合計 1,000 万元以上の資金とコンピューティング能力のサポートを提供しました; 2. 今年、Zhipu AI は大規模なモデルのオープンソース基金も立ち上げ、1,000 枚の GPU カード、1,000 万枚の GPU カードを提供しました元の現金サポート、および1,000億の無料APIトークン; 3. Zhipu AIはまた、「Zプラン」をさらにアップグレードし、大規模な起業家プロジェクトの革新的な探求をサポートするために、エコロジカルパートナーと共同で10億元の基金を立ち上げました。は現在、Lingxin Intelligence や Wuwen Core Dome などのプロジェクトに公的投資を行っています。


商業レベルでは、Zhipu AI GLM シリーズ モデルは現在、Deloitte、Volcano Engine、Mengniu、China Telecom、Kingsoft、Mango TV、Mafengwo、Huatai Securities などの数十の企業と協力しており、政務、金融で使用されています。 、エネルギー、製造、医療などの分野で、国内の10種類以上のハードウェアエコロジーをサポートしています。 Zhang Peng氏は、To Bサイドビジネスの実装に加えて、Zhipu AIはループを閉じて将来に可能性を残すことを目的として、将来的にTo Cサイドのスーパーアプリケーションも開発する予定であることを明らかにした。


TMTpost Appは、Zhipu AIが現在主にデジタルヒューマンSaaS/PaaSソリューション、科学技術インテリジェンスSaaS/PaaSソリューション、ChatGLMシリーズを含むコグニティブラージモデルPaaS/MaaSプラットフォームソリューションの3種類の技術サービスを主に販売していることを理解しています。


Zhang Peng 氏は、2023 年下半期には数百の顧客が注文に署名し、2023 年には署名された注文の総数が 1 億件を超えるだろうと明らかにしました。


Tencent News Deep Networkによると、張鵬氏は中国の大型モデルとGPTの差について、「両者は依然として追いつき、その差を縮めている。主な理由は、国内の大型モデルがOpenAIよりも遅れてスタートしたため、今後も継続する必要がある」と述べた。 GPT の傾きは、アルゴリズム、システム エンジニアリング、データ、アプリケーション、実装チェーンにおけるすべての革新の蓄積によってのみ超えることができます。


張鵬氏は以前、規模と核心能力の点で、国内開発の大型モデルと世界の先進レベルとの間には約1年の差があると述べた。


中国科学院の学者で清華大学教授のZhang Bo氏は、大規模言語モデル(LLM)には、自己認識の欠如、制御不能な品質、信頼性のなさ、堅牢性のなさ(即発的な言葉の影響を受ける)などの問題がまだあると考えている。多くの「錯覚」エラーもあります。 しかし、それにもかかわらず、彼は依然として大型モデル技術の開発を支持しており、AI 業界の発展は常に特定の分野、特定のモデル、特定のタスクによって制限されており、より大きく強くなるのは難しいと信じています。したがって、開発は比較的遅くなりますが、大型モデルは業界に一般的なハードウェアとソフトウェアを開発する機会を提供します。


「2023年の全面的な競争を経て、我々は決定的な瞬間に入ったと徐々に言えるようになっていると思います。」 Zhang Peng氏は、Zhipu AIはAI業界のすべての参加者、業界の上流および下流のパートナーと協力したいと述べたチェーン、開発者コミュニティ、学術コミュニティは協力して、中国における将来の AI の発展にささやかな貢献をしています。

请先 登录 后评论