네트워크 벤더 3사 “매출 호조··· 향후 관세 영향은 불확실”

미국과 아시아 주요 국가 간 관세 정책 불확실성이 네트워크 벤더와 기업 고객 사이에 긴장감을 높이고 있다. 현재까지 네트워크 기업들은 일부 반도체 및 관련 부품이 관세 적용 대상에서 제외되고 보복 관세 유예 조치가 적용되면서 실질적인 재무 영향은 크지 않다고 밝혔다. 그러나 관세율 변동 가능성에 따라 상황이 급변할 수 있다는 우려도 증가하고 있다. 일부 업계 관계자들은 기업들이…

엔비디아, NV링크 기술 개방··· ‘AMD·인텔 제품도 사용 가능’

엔비디아(Nvidia)가 20일 열린 ‘2025 컴퓨텍스(Computex)’ 행사에서 NV링크 퓨전(NVLink Fusion)을 발표했다. 이와 함께 고속 인터커넥트 기술인 NV링크를 개방한다고 밝혔다. 이로써 AMD, 인텔을 포함한 다양한 업체가 해당 기술을 사용할 수 있게 됐다. NV링크는 엔비디아가 2019년 인수한 멜라녹스(Mellanox)의 네트워킹 기술에서 출발한 인터커넥트 기술이다. 하나의 시스템이나 랙 내 여러 GPU 간에 연산 자원과 메모리 자원을 공유할 수 있도록 해,…

엔비디아, 폭스콘·대만 정부와 손잡고 블랙웰 기반 AI 팩토리 구축

엔비디아가 폭스콘 혼하이 테크놀로지 그룹(Foxconn Hon Hai Technology Group, 이하 폭스콘)과 오랜 파트너십을 강화하고 대만 정부와 협력한다고 발표했다. 양사는 이번 협력을 통해 연구원, 스타트업, 업계 등에 엔비디아 블랙웰 인프라를 제공할 AI 팩토리 슈퍼컴퓨터를 구축할 계획이다. 폭스콘은 엔비디아 클라우드 파트너(Cloud Partner, NCP)로서 자회사인 빅 이노베이션 컴퍼니(Big Innovation Company)를 통해 AI 인프라를 제공한다. 1만 개의 엔비디아 블랙웰…

MS “이제는 ‘오픈 에이전틱 웹 시대’··· AI가 직접 결정 내리고 행동할 것”

MS에 따르면 AI는 추론 능력과 메모리 기술의 고도화로 인해 스스로 학습하고 결정을 내리는 에이전트로 진화하고 있다. MS는 AI 에이전트가 개인, 조직, 팀뿐만 아니라 전체 비즈니스 전반에 작동하는 인터넷 환경을 ‘오픈 에이전틱 웹(Open Agentic Web)’으로 정의하며, AI가 사용자나 조직을 대신해 결정을 내리고 작업을 수행하는 시대가 도래할 것이라고 전망했다. MS는 이번 행사에서 깃허브(GitHub), 애저 AI 파운드리(Azure AI…

인텔, 컴퓨텍스 2025서 AI·워크스테이션용 신형 GPU·가속기 공개

인텔이 컴퓨텍스 2025에서 전문가와 개발자를 위한 신규 GPU 및 AI 가속기 제품군을 공개했다. 이번 발표는 인텔 대만 진출 40주년을 기념해 이뤄진 것으로, 고성능 AI 및 워크스테이션 컴퓨팅 수요에 대응하는 핵심 솔루션이 포함됐다. 신형 인텔 아크 프로 B 시리즈 GPU : 인텔은 AI 추론 및 전문가용 워크스테이션에 최적화된 구성으로 설계된 인텔® 아크™ 프로 B60(Intel® Arc™ Pro…

AI導入を急ぐあまり見過ごされる8つのセキュリティリスク

多くの企業が生成系AI(Generative AI)から生産性向上を得ようと急ぐ一方で、そのセキュリティ上の影響を見落としているケースが大半だ。画期的なイノベーションに期待するあまり、適切なセキュリティ対策がおざなりにされているのである。 世界経済フォーラム(WEF)がアクセンチュアと共同で実施した調査によれば、企業の63%がAIツールを導入する際にセキュリティ評価を行っておらず、さまざまなリスクを抱え込んでいるという。 このリスクは市販のAIソリューションだけでなく、社内のソフトウェア開発チームと協力して構築した自社専用の実装にも及ぶ。Tricentisの「2025 Quality Transformation Report」によると、開発チームの多くはソフトウェアの品質向上(13%)よりも、納期短縮(45%)に注力している。一方で、同レポートの回答者の3分の1(32%)は、ソフトウェア品質の低下によってセキュリティ侵害やコンプライアンス違反がより頻繁に起こる可能性があると認めている。 実際、セキュリティ侵害や失敗はますます頻繁に発生している。シスコが5月7日に公表した最新版の「Cybersecurity Readiness Index」によれば、86%の組織が過去1年にAI関連のセキュリティインシデントを経験しているという。しかし、そのような組織のうち、自社で包括的なAIセキュリティ評価を行うだけのリソースや専門知識があると考えているのは45%にとどまる。 見過ごされがちなAIのセキュリティリスク CSOが専門家に聞いたところによると、AIシステムを導入前に十分にテストしないことは、従来のソフトウェアとは大きく異なるさまざまな脆弱性を招くという。以下はその代表的な例である。 ■ データ漏えいAIシステムは大量の機密情報を処理することが多いが、十分なテストが行われていない場合、そのデータがどれほど簡単に流出し得るかを見落としがちだ。セキュリティ対策が不十分なストレージ、過剰に情報を返すAPI、アクセス制御の不備などが原因となる。 「多くのAIシステムは推論の過程でユーザーデータを取り込み、セッションの文脈を保持することがあります」と語るのは、AIセキュリティテストベンダーMindgardのCEO兼共同創業者であるピーター・ギャラガン(Peter Garraghan)博士だ。「データの取り扱いが監査されていない場合、モデルの出力やログの公開、微調整済みデータセットの誤用などを通じて、データ漏えいのリスクが高まります。大規模言語モデル(LLM)のメモリ機能やストリーミング出力モードによって、これらのリスクはさらに深刻化します」 ■ モデルレベルの脆弱性「プロンプトインジェクション」や「ジェイルブレイク」、敵対的なプロンプトチェインといった攻撃手法は、入念なテストがなければ見過ごされやすい。これらの攻撃によって、モデルの出力制約を回避したり、機密データを漏えいさせたり、意図しないタスクを実行させたりする恐れがある。 「この種の攻撃は、モデルのアライメント(安全策)の仕組みや、トークンレベルの推論に依存している点など、モデルの弱点を突いて行われることが多いのです」と、ランカスター大学(英国)講師でもあるギャラガン氏は解説する。 ■ モデルの整合性と敵対的攻撃敵対的な操作や不正な学習データによる「毒付け」に対するテストを行わないままでは、AIモデルがどのように振る舞うかを攻撃者が意のままにコントロールすることが容易になる。特に、ビジネス上の意思決定や機密性の高い業務の自動化をサポートする場合には危険性が高い。 サイバーコンサル企業CyXcelのCOO、ジャノ・ベルムーデス(Jano Bermudes)氏はこう語る。「攻撃者は入力データを操作してAIモデルを騙し、誤った決定を下すよう仕向けることができます。これは回避攻撃やデータ毒付け攻撃を含みます」 ■ システミックな統合リスクAIモデルはAPIやプラグイン、RAG(Retrieval-Augmented Generation)構成などを介して、より大きなアプリケーションのパイプラインに組み込まれることが多い。 「この段階でのテストが不十分だと、モデルの入力・出力の扱いにおけるセキュリティホール、シリアライズされたデータ形式を経由したインジェクション経路、ホスティング環境内での権限昇格といった問題が生じる可能性があります」とギャラガン氏は警鐘を鳴らす。「こうした統合ポイントは、一般的なAppSec(アプリケーションセキュリティ)のワークフローでは見落とされがちです」 ■ アクセス制御の不備AIツールは他のシステムへ接続することが多く、誤った構成によって、意図した以上のアクセス権をユーザーや攻撃者に与えてしまうおそれがある。APIキーが丸見えになっていたり、認証が不十分だったり、ログが不十分で乱用が発見できないといったケースが挙げられる。 ■ ランタイムセキュリティの不備AIシステムは本番環境における運用中にのみ発現する「創発的挙動」を起こすことがある。特に動的な入力条件下や他のサービスとの連携時に顕在化しやすい。 「たとえば、ロジックの破損や文脈のオーバーフロー、出力の反射などといった脆弱性は、本番の運用下や実際のトラフィックをシミュレートしたレッドチーム演習でしか発見できないことがよくあります」とギャラガン氏は説明する。 ■ コンプライアンス違反AIツールが規制要件を満たしているか確認を怠れば、法的措置に直面しかねない。たとえば、AIツールによる無許可のデータ処理や、モデルの大規模運用時に想定外の挙動が起きてシステムダウンを招き、規制違反となる可能性がある。 ■ 組織全体へ及ぼす影響「こうした技術的な脆弱性は、テストされないまま放置されると個別の問題にとどまりません」とギャラガン氏は指摘する。「エンジニアリング領域を超えて、組織全体にまたがるリスクとなって表面化します。運用上の視点から見れば、AIのセキュリティテスト不足による影響は、安全性・セキュリティ・事業の確実性のすべてに直接結びついてくるのです」 コンプライアンス専門企業ISMS.onlineの最高プロダクト責任者(CPO)であるサム・ピーターズ(Sam Peters)氏も、適切なAIセキュリティ評価を行っていない企業では、広範囲にわたる運用への悪影響が見られると指摘する。 「AIシステムを急いで本番運用に移すと、モデルの整合性(毒付けや回避攻撃など)、データプライバシー(学習データ漏えいや機密データの不適切な取り扱い)、ガバナンス上の欠陥(透明性の欠如やアクセス制御の不十分さ)といった3つの主要領域で同じような脆弱性を繰り返し目にすることになります」と同氏は言う。 そしてピーターズ氏は、「これらの問題は単なる仮説ではなく、実際に“野生の脅威”として活用されています」と警告する。 テストか、それともスピードか AIの導入を急ぎたい現場と、セキュリティを担うCISOとの間には大きな緊張関係が生まれる。しかしアプリケーションセキュリティテスト企業SparrowのCOO、ジェームズ・レイ(James Lei)氏は、「CISOは熱狂的な導入に歯止めをかけて、基本的なセキュリティ対策を導入プロセスに組み込むよう求めるべきだ」とアドバイスする。 「こうしたリスクを低減するには、ハイリスクのソフトウェアと同様にAIツールをテストし、疑似攻撃を試み、誤用シナリオをチェックし、入力と出力のフローを検証するとともに、処理されるデータが適切に保護されていることを確認する必要があります」とレイ氏は指摘する。 これらのリスクに対処するためには、以下のような包括的なテスト戦略の実装が推奨される。 ペネトレーションテスト:脆弱性を発見するための疑似攻撃 バイアスや公平性の監査:AIによる意思決定が公平かつ差別的でないことの検証 コンプライアンス確認:関連する規制や基準への適合性をチェック 「AIの開発ライフサイクルにセキュリティテストを組み込めば、AIの恩恵を得ながら潜在的脅威から組織を守ることができます」とピーターズ氏は強調する。「AIツールを導入する前に、AIシステム固有の脅威モデリングや、敵対的入力を想定したレッドチーム演習、モデルのドリフトやデータ漏えいを厳重にテストすべきです。同時に、AI特有のコントロールをリスクマネジメントとコンプライアンスプログラムに取り入れることも欠かせません」 ピーターズ氏はこう付け加える。「ここで役立つのが、新たに策定されたISO/IEC 42001です。AIを責任ある形で運用するための枠組みを示しており、リスク評価やデータの扱い、セキュリティ管理、継続的なモニタリングなどに関するガイダンスが含まれています」 他の専門家たちもセキュリティテストの必要性を認める一方で、AIベースのシステムにおけるテスト手法は従来と異なるアプローチを取るべきだと主張する。 「通常のソフトウェアテストのように、ニューラルネットワークのコードを眺めるだけでは安全性を評価できません。クリーンで高品質なデータで学習させても、AIが奇妙な動きをすることはあるのです。どこまでテストすれば十分かを判断するのは難しい」と語るのは、クラウドソーシングによるセキュリティ企業Intigritiのチーフハッカーオフィサー(Chief Hacker Officer)であるインティ・デ・セウケレール(Inti…

NFL Combine se apoya en Azure AI para tomar decisiones en tiempo real el día del ‘draft’

Irene Iglesias Álvarez | Seattle, Washington (Estados Unidos) La Liga Nacional de Fútbol Americano (NFL, por sus siglas en inglés) celebra anualmente el bautizado como Scouting Combine, la mejor oportunidad para aquellos jugadores que aspiran a conquistar el deporte más popular de los Estados Unidos. La cita, cuya asistencia está reservada a aquellas jóvenes promesas…

Así es el orquestador de agentes de Adobe: personalización a escala para impulsar la creatividad 

Hoy la inteligencia artificial generativa está cambiando las reglas del juego, especialmente a través de la construcción de agentes y a raíz de lo que Adobe define como ‘Customer Experience Orchestration’, una nueva categoría diseñada para alcanzar aún más productividad en el trabajo diario. Precisamente, en el marco del evento anual de la compañía norteamericana, celebrado…