Yandex.Metrika
中文中文 EnglishEnglish 日本語日本語 DeutschDeutsch РусскийРусский
御嘉鑫LOGO深セン市御嘉鑫科技株式会社
プレスセンター  プレスセンター
ホームページ  現在のポジション:ホームページ > プレスセンター > 詳細ニュース

マスク氏はAIはすぐに人より頭がいいと言っていますが、頼りになりますか。


 

発売日:[2024/4/11]
 

米有名企業家のエロン・マスク氏は8日、ソーシャルメディアで、来年末か2026年までに新たな人工知能(AI)モデルが人間の知能を超えて「最も賢い人よりも賢い」可能性があると述べた。


マースクのこの予測は信頼できますか。人工知能が急速に発展しているので、人類は座って「ボーナス」を受け取ることができますか?同時に、人工知能は発展の過程で多くの問題を引き起こすことができて、どのようにその中のリスクに対応しますか?

マースクの予測は当てになりますか。

マースク氏は8日、ノルウェー銀行投資管理基金のニコラ・タンゲン最高経営責任者とのインタビューをソーシャルメディアプラットフォームXで発表した。マースク氏はインタビューで、「私たちは来年末までに、どの人類よりも賢い人工知能を持つだろうと予想している」と述べた。

この見通しは関連ボトルネックによって制限されている。英紙フィナンシャル・タイムズによると、人工知能の発展速度はマイクロチップの供給がボトルネック期に入ったことで影響を受けており、特に米英偉達社製のマイクロチップは、人工知能モデルの訓練と運用に重要である。マースク氏によると、これらの制限は緩和されつつあるが、新しいモデルは多くのデータ機関の設備と電力網の性能を試しているという。

清華大学戦略・安全研究センターの特約専門家である朱栄生氏は記者団に対し、人間の脳消費電力は人工知能の稼働時の損失電力よりはるかに低く、人工知能は人間の知能レベルに達するにはまだ差があると述べた。しかし、長期的に見ると、人間の脳に比べて多くの不足がある人工知能は、アルゴリズム、データが絶えず「加持」されているか、最終的には人間の知能を超えているが、この目標を達成するために必要なハードウェアとソフトウェアはそれぞれチップとアルゴリズムである。

マースクは昨年、人工知能のベンチャー企業xAIを設立し、同年11月に初の人工知能モデルGrokを発売した。マースク氏によると、2世代モデルGrok 2の訓練は今年5月に完了し、チップH 100を計算するためには約2万個のGPU(英偉達図形プロセッサ)が必要で、訓練プロセスは一時チップ不足で障害を受けた。Grok 2に続き、xAIはより高性能な3世代モデルを発売し、10万個を超えるチップが必要となる見通しだ。彼は、昨年の人工知能の発展の主な制約要因は高性能チップの不足であり、今年、供給制限は電圧相互誘導器に転換している、あと1、2年で規制は電力供給になる。

「配当金」を受け取るには国際協力が必要だ

過去18カ月間、ビデオ生成ツールやチャットロボットを含む人工知能の突破は人工知能の発展を大幅に加速させてきた。

フィナンシャル・タイムズ紙は、マースク氏が昨年、人類が2029年に汎用人工知能を「完全に」実現すると予測したと報じた。彼はいわゆる汎用人工知能の発展に楽観的であり、この人工知能ツールは非常に強力であり、あらゆる分野で最も有能な人間個体を負かすことができると考えている。グーグル傘下の人工知能会社「深層思考」の共同創業者であるデミス・ハサービス氏は今年初め、汎用人工知能が2030年に実現するかどうかを予測した。

朱栄生氏によると、人工知能の発展にはまず政策、資源、技術サポートが必要であり、多くの分野の人工知能の「育成」には関連サポートが不足している。次に国家間の協力が必要であるが、現在多くの国際協力は地政学など多くの要素に縛られ、人工知能の発展は抑制されている。第三に、人工知能の発展は文化的特性に左右されており、例えばChatGPTが示した答えは英語の文脈により符合しており、これにより単一の国家の力で人工知能を発展させることは世界の人工知能の発展のアンバランス、つまりデータギャップを増加させる可能性がある。これらの問題の解決には、資金と市場を正確に結びつけ、国際協力を幅広く展開する必要がある。

国連の元副事務総長で国連環境計画署のエリック・ソルハイム前執行主任はこのほど新華社記者の取材に対し、「現在、世界は人工知能に対して世界的な協力を展開する必要があり、これには中国、米国、欧州諸国などの大国が密接に協力し、合理的な法規を制定し、それによって新技術がもたらすチャンスを把握し、その恩恵を得る必要がある」と述べた。

リスクへの対応方法

人工知能は生産コストを下げ、生産効率を高め、多くの業界の新業態に扉を開けた。効率は向上したが、人工知能を運用することで、問題やリスクは少なくない。

英ネイチャー誌が2023年に科学者を対象に行った調査の結果、回答者の30%が人工知能ツールを使って原稿を書くことを認めた。米国の「フォルクスワーゲン科学」月刊サイトは、多くの研究者が人工知能ツールに依存しているため、多くの専門誌には人工知能ツールによる「でたらめ」があふれており、多くの文章に人工知能を使った痕跡が明らかになっていると指摘している。

2014年には、米国電気電子工学会とドイツのシュプリンガー出版社のジャーナルが、人工知能が生成する「でたらめ」を含む120以上の記事を削除していた。『フォルクスワーゲン・サイエンス』は、それから10年間、OpenAIのChatGPTなど、より複雑で使いやすいツールが広く使われるようになるにつれて、各種ジャーナルで人工知能が生成するテキストはほぼ間違いなく増加すると論評している。

朱栄生氏は、人工知能による社会問題の蔓延速度が速く、範囲が広く、この技術は著作権法、著作権、プライバシー権などの法律問題に関連する複雑さを絶えず激化させているため、新技術の道徳境界と法律規範に適用されると考えている。

「人工知能時代はリスクとチャンスが併存する時代であり、この技術が人類社会と運命にもたらす不確実性はもしかすると確定性よりはるかに大きいかもしれない」と朱栄生氏は述べた。「この阻むことのできない波に直面して、人工知能ブームの中で冷静で慎重な心理状態と思考を維持する必要がある」。