젯브레인 CEO “차세대 추상화 프로그래밍 언어 개발 중”

코틀린(Kotlin) 언어의 개발사로 잘 알려진 젯브레인이 새로운 프로그래밍 언어를 개발 중이다. 이 언어는 AI와 코드의 제어 가능성과 투명성을 크게 향상시키는 것을 목표로 한다. 젯브레인의 최고경영자(CEO)키릴 스크리간은 지난 7월 23일 파운드리 산하 언론사 인포월드와의 인터뷰에서, 아직 이름이 정해지지 않은 이 언어에 대한 구체적인 구상을 밝혔다. 그는 컴퓨터 코드가 처음에는 어셈블리어로 작성되다가 C와 C++을 거쳐, 자바와 C#로…

유럽 클라우드 연합회, 브로드컴의 VM웨어 인수 승인취소 소송 제기

CISPE가 지난 25일 브로드컴의 VM웨어 인수를 승인한 유럽연합 집행위원회(EC)의 결정을 취소해 달라며 소송을 제기했다. CISPE 대변인 벤 메이너드는 현재 유럽 일반법원에 계류 중인 항소 건에 대해 “EC는 브로드컴이 제시한 라이선스 시정 조치를 충분히 검증하지 않았고, 이번 인수가 유럽 클라우드 인프라 제공자와 고객들에게 미치는 리스크를 과소평가했다. CISPE는 이 인수 승인이 VM웨어의 라이선스 시장 독점 지위를 고착화하고…

“클라우드 비용·맞춤화 문제가 온프레미스 전환 이끌어” 리퀴드웹 조사

조사에 따르면, 많은 기업이 기대했던 클라우드 전환이 만능 해결책은 아닌 것으로 나타났다. 특히 예상치 못한 비용 증가가 기업들을 다시 온프레미스 컴퓨팅으로 이끄는 주요 요인이었다. 매니지드 호스팅 업체인 리퀴드웹(Liquid Web)이 업종과 기업 규모를 막론한 1,000여 명의 전문가를 설문 조사한 결과에 의하면, 온프레미스 컴퓨팅은 여전히 기업 아키텍처의 핵심 기반인 것으로 나타났다. 응답자들이 온프레미스를 선택한 이유로는 규제 준수,…

네이버클라우드, LS일렉트릭과 전력·제조 산업 AI 전환 위해 협력

이번 협력을 통해 양사는 네이버클라우드의 경량 AI 모델 ‘하이퍼클로바 X DASH(이하 HCX-DASH)’를 기반으로 전력 설비 진단에 특화된 AI 에이전트를 공동 개발하고, 제조 산업 전반의 AI·클라우드 전환을 가속화할 계획이다. 이를 위해 네이버클라우드는 지난달 LS일렉트릭과 AI 에이전트 개발 계약을 체결하고, HCX-DASH 기반의 전력설비 진단 특화 AI 에이전트 개발 협력에 착수했다. 해당 에이전트는 전력설비의 모니터링 데이터를 실시간으로 분석하고, 챗봇 형태의 진단 리포트를 제공하는 시나리오로 설계됐으며, 특히 폐쇄망 환경에서도 안정적으로 구동 가능한 온프레미스형 AI 구조로 설계되어 실제 산업…

대혼란의 디지털 트랜스포메이션에서 얻은 뼈아픈 교훈

전체 디지털 트랜스포메이션 프로젝트 중 약 70%는 목표를 달성하지 못한다. 대부분은 반짝이는 신기술만 좇고 정작 근본적인 문제 해결은 뒷전이기 때문이다. 필자도 3년에 걸친 프로젝트를 통해 이를 뼈저리게 실감했다. 필자는 여러 컨설턴트와 연구 전문가로 구성된 팀의 일원으로, 세계 최대 관광 기업 중 한 곳의 디지털 트랜스포메이션 프로젝트에 참여했다. 프로젝트 규모는 약 10억 달러였다. AI나 블록체인을 떠올리기…

Hard lessons from a chaotic transformation

Approximately 70% of all digital transformation initiatives fail to achieve their goals, often because companies chase shiny new tech while forgetting to address fundamental problems. I experienced this firsthand during a three-year project. As part of a team with several consultants and research experts, I was involved in the nearly $1 billion transformation of one of the…

UPS transforms air cargo operations with data, AI

Worldport, the worldwide air hub for UPS, has made Louisville Muhammad Ali International Airport in Louisville, Kentucky, the third-busiest cargo airport in the US. The 5.2 million square feet facility boasts more than 20,000 employees, 580 aircraft (290 of them large-body UPS jets), and moves about 560,000 packages per hour. “It’s a very intense operation,”…

世界のAI規制について知っておくべき5つのこと

1. 先行するEUの「リスクベース・アプローチ」とは何か

世界のAI規制の議論をリードしている存在として、まず注目すべきは欧州連合(EU)の動向です。EUは、世界に先駆けて包括的なAIの法的枠組みである「AI法(AI Act)」の制定を進めており、その中核をなすのが「リスクベース・アプローチ」という考え方です。これは、AIがもたらすリスクをその深刻さに応じて階層化し、それぞれのリスクレベルに見合った規制を課すという非常に合理的かつ体系的なアプローチです。

具体的には、AIシステムを四つのカテゴリーに分類します。最も厳しい規制の対象となるのが「許容できないリスク」を持つAIです。これには、人々の行動を潜在意識下で操作して危害を加えたり、社会的なスコアリングによって不利益な扱いをしたりするような、EUが掲げる基本的価値観や人権を根本から脅かすと見なされるAIが含まれ、原則としてその使用が禁止されます。

次に位置するのが「ハイリスク(高リスク)」なAIで、ここがEUのAI規制の核心部分となります。例えば、自動運転車、医療診断支援システム、採用活動における人材評価ツール、あるいは司法や法執行機関で用いられるAIなどがこれに該当します。これらのAIは、人々の生命や健康、安全、そして基本的な権利に重大な影響を及ぼす可能性があるため、市場に投入される前に厳格な適合性評価を受けることが義務付けられます。開発者は、使用するデータの品質管理、技術文書の作成、人間による適切な監視体制の確保、そして高いレベルの堅牢性や正確性、サイバーセキュリティを保証しなければなりません。違反した場合には巨額の制裁金が科される可能性があり、企業にとっては極めて重要なコンプライアンス要件となります。

三つ目のカテゴリーは「限定的なリスク」を持つAIです。チャットボットのように、人間がAIと対話していることを認識する必要があるシステムがこれにあたり、利用者に対してその旨を透明性をもって開示する義務が課されます。最後に、これら以外の大多数のAIアプリケーションは「最小限のリスク」と分類され、特に新たな法的義務は課されず、既存の法律の範囲内で自由な開発と利用が奨励されます。

このリスクに応じた規制のグラデーションを設けるEUのアプローチは、個人の権利保護とイノベーションの促進という二つの要請を両立させようとする野心的な試みであり、その包括性と具体性から「ブリュッセル効果」として、世界各国のAI規制のモデルケースとなりつつあるのです。

2. 米国の「イノベーション重視」とセクター別規制の実際

EUが包括的でトップダウンな規制の道を歩む一方で、アメリカ合衆国は異なるアプローチを選択しています。米国が最も重視するのは、経済成長の源泉である「イノベーションの維持」です。過度な規制が技術の発展や産業の国際競争力を削いでしまうことを警戒し、EUのような統一された包括的な法律の制定には慎重な姿勢を貫いています。

その代わりに米国が採用しているのが、既存の省庁や規制当局がそれぞれの所管分野に応じてAIを監督する「セクター別アプローチ」です。例えば、金融分野におけるAIの利用は証券取引委員会(SEC)が、医療分野では食品医薬品局(FDA)が、そして運輸分野では運輸省(DOT)が、それぞれの専門知識と既存の法規制の枠組みを活用して対応します。このアプローチの利点は、各分野の特殊性を考慮した、より柔軟できめ細やかな規制が可能になる点にあります。しかし同時に、政府全体としての一貫性が欠如し、規制の抜け穴や重複が生じる可能性も指摘されています。

このような状況の中で、米国のAIガバナンスにおける羅針盤の役割を果たしているのが、米国国立標準技術研究所(NIST)が策定した「AIリスク管理フレームワーク(AI RMF)」です。これは、企業や組織が自主的にAIのリスクを管理し、信頼できるAIを設計、開発、展開するための実践的な手引きを提供するものです。

法的拘束力を持つ「法律」ではなく、あくまで任意で活用される「ガイドライン」という位置づけですが、AIのリスクを「マッピング、測定、管理」し、「ガバナンス」を確立するための一連のプロセスを具体的に示しており、多くの企業にとっての事実上の標準(デファクトスタンダード)となりつつあります。近年の大統領令では、連邦政府機関に対してこのフレームワークの採用を義務付けるなど、その重要性は増しています。

米国の姿勢は、民間企業の活力を最大限に引き出し、市場のダイナミズムを通じて責任あるAIのあり方を模索していくという、自由主義経済の思想が色濃く反映されたものと言えるでしょう。EUの厳格な法規制と米国の柔軟な自主規制という対照的なアプローチは、今後の世界のAIルール形成において、緊張と協調の関係を織りなしていくことになります。

3. 中国の「国家主導」と社会統制におけるAI規制

EUの「人権中心」、米国の「イノベーション中心」というアプローチに対し、中国は「国家主導」という全く異なる軸足でAI規制を展開しています。中国におけるAI戦略は、経済発展の加速という側面に加え、国家の安全保障と社会の安定を維持するという極めて強い政治的な目的と不可分に結びついています。そのため、中国のAI規制は、トップダウンで迅速、かつ特定の技術領域に焦点を当てた強力なものであるという特徴を持っています。

特に近年、世界的な注目を集めた生成AIの分野では、その影響力の大きさを警戒し、いち早く「生成AIサービス管理暫定弁法」を施行しました。この規則では、生成AIサービスを提供する事業者に対し、社会主義の核心的価値観を遵守することや、国家の安全を脅かすコンテンツを生成しないこと、そして生成されたコンテンツには明確なラベル付けを行うことなどを義務付けています。

また、アルゴリズムを利用してユーザーに情報やサービスを推薦する「アルゴリズム推薦技術」についても、世論操作や中毒性の高いコンテンツの拡散を防ぐ目的で詳細な規制を導入しています。利用者がアルゴリズム推薦を拒否する選択肢を持つことや、事業者がアルゴリズムの基本原理を公開することなどが求められます。

これらの規制の根底には、AI技術が社会に与える影響を国家の管理下に置き、コントロールしようとする明確な意図が見て取れます。これは、欧米が個人の自由や権利を起点に考えるのとは対照的です。さらに、中国のAI規制は、広範なデータ収集と活用を前提とした社会信用システムのような、独自の社会システムと連携している点も看過できません。

国家が膨大な国民のデータを掌握し、それをAIで解析することで、産業振興と社会統制の両面で強力な力を発揮する構造が構築されつつあります。中国政府は、規制を通じて国内のAI産業を保護・育成し、特定の分野で世界的なリーダーシップを確立しようという国家戦略を明確に持っており、そのためのルールを戦略的に形成しているのです。この国家主導のアプローチは、技術開発のスピードと社会実装の規模において驚異的な成果を生む可能性がある一方で、国際社会からはデータの扱いや個人の自由の制約といった点について、深刻な懸念が表明されています。

4. 日本の「ソフトロー」と「人間中心のAI」が目指すもの

欧米中という三つの大きな潮流の中で、日本は独自の立ち位置を模索しています。日本のAI規制における基本的なアプローチは、法律による厳格な義務付け、いわゆる「ハードロー」を直ちに導入するのではなく、ガイドラインや原則といった、法的拘束力のない「ソフトロー」を中心とすることです。この背景には、技術の進展が非常に速いAIの分野では、硬直的な法律がすぐに時代遅れになり、かえってイノベーションを阻害しかねないという慎重な判断があります。

日本政府が掲げる理念は「人間中心のAI」です。これは、AIが人間の尊厳と個人の自律を尊重し、多様な背景を持つ人々が幸福を追求できる社会の実現に貢献すべきだという考え方です。この理念を実現するために、内閣府のAI戦略会議が「人間中心のAI社会原則」を策定し、その具体的な実践の手引きとして、総務省と経済産業省が共同で「AI事業者ガイドライン」を公表しています。

このガイドラインは、AIを開発する事業者や提供する事業者、そして利用する事業者に対して、公平性、説明責任、透明性といった原則を遵守し、プライバシー保護やセキュリティ確保に努めるよう自主的な取り組みを促すものです。このソフトロー・アプローチの利点は、技術の変化や社会の状況に応じて、柔軟かつ迅速に内容を見直せる点にあります。また、企業にとっては、画一的なルールに縛られることなく、自社の事業内容やリスクに応じて最適な対策を講じることが可能になります。

しかし、その一方で、自主的な取り組みに委ねるだけでは、悪意のある事業者や安全意識の低い事業者によるリスクを十分に防げないのではないかという批判も存在します。特に、EUのAI法がハイリスクAIに対して厳格な義務を課す中、日本のソフトローだけで国際的な信頼を得て、日本企業がグローバル市場で不利にならないようにするための対応が課題となっています。

そのため、日本政府はEUとの対話を重ね、日本のガイドラインがEUのAI法が求める水準と実質的に同等であることを示そうと努めています。将来的には、ソフトローを基本としつつも、特にリスクの高い領域については、既存の法律の改正や限定的な法整備といったハードローとの組み合わせ、いわゆる「スマート・レギュレーション」へと移行していく可能性も議論されており、日本は今、柔軟性と実効性のバランスをどのように取るかという重要な岐路に立っています。

5. 国境を越えるAIと「国際的なルール形成」の最前線

これまで見てきたように、AIに対する規制のアプローチは国や地域によって大きく異なります。しかし、AI技術やそれを用いたサービスは、インターネットを通じて瞬時に国境を越えていきます。ある国で開発されたAIが別の国の市民に影響を与え、ある国で収集されたデータが別の国で学習に利用されるのが日常です。

このようなグローバルな性質を持つAIに対して、一国だけの規制で対応するには限界があります。特定の国が規制を強化すれば、企業はより規制の緩い国へと拠点を移してしまう「規制の底辺への競争」が起こるかもしれません。逆に、各国の規制がバラバラで相互に矛盾するものであれば、グローバルに事業を展開する企業は複雑なコンプライアンスコストに直面し、国際的なイノベーションが停滞する恐れもあります。

こうした課題に対応するため、国際社会ではAIに関する共通のルールや原則を形成しようという動きが活発化しています。その代表的な例が、G7(先進7カ国)の枠組みで進められている「広島AIプロセス」です。これは、2023年に日本の主導で開始されたもので、生成AIをはじめとする高度なAIシステムのリスクを軽減し、信頼できるAIの実現に向けた国際的な指針や行動規範を策定することを目的としています。ここでは、EU、米国、日本といった異なるアプローチを持つ国々が協力し、開発者向けの国際的な行動規範について合意するなど、具体的な成果を生み出し始めています。

また、経済協力開発機構(OECD)も早くからAIに関する議論を主導しており、2019年に策定した「OECD AI原則」は、包摂的成長、持続可能な開発、人間の価値中心、公平性、透明性と説明可能性、堅牢性・安全性、説明責任といった項目を掲げ、多くの国々の政策の基礎となっています。

これらの国際的な取り組みの目的は、世界中に単一の法律を強制することではなく、各国の規制が相互に運用可能であること、すなわち「相互運用性(interoperability)」を確保することにあります。それぞれの国の法制度や文化を尊重しつつも、AIの安全性や信頼性に関する基本的な価値観を共有し、企業が国境を越えて円滑に活動できる予測可能な環境を整えること。それが、この国際的なルール形成の最前線で目指されている姿です。このグローバルな議論の行方は、今後のAI技術の発展の方向性だけでなく、未来の国際秩序のあり方をも左右する、極めて重要な意味を持っているのです。


Read More from This Article: 世界のAI規制について知っておくべき5つのこと
Source: News