![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
AIは2024年以来支配的な物語でしたが、ユーザーと企業は依然としてそれを完全に信頼することはできません。財政、個人データ、またはヘルスケアの決定であろうと
As the year 2024 came to a close, the narrative surrounding artificial intelligence (AI) reached a fever pitch. Both users and companies alike expressed a lack of complete trust in the technology.
2024年が終わりに近づくと、人工知能を取り巻く物語(AI)は熱のピッチに達しました。ユーザーと企業の両方が、テクノロジーに対する完全な信頼の欠如を表明しました。
Despite the significant investments made by startups and multinational companies in expanding AI to domains such as finances, health, and various other aspects of daily life, a substantial deficit in trust in AI persists. This deficit poses one of the most pressing barriers to widespread adoption.
AIを財政、健康、日常生活の他のさまざまな側面などのドメインに拡大する際に、スタートアップや多国籍企業が行った多額の投資にもかかわらず、AIの信頼の実質的な赤字は持続します。この赤字は、広範囲にわたる採用に対する最も差し迫った障壁の1つをもたらします。
Enter decentralized and privacy-preserving technologies, which are being rapidly recognized as promising solutions for providing verifiability, transparency, and enhanced data protection without hindering AI's growth.
AIの成長を妨げることなく、検証可能性、透明性、および強化されたデータ保護を提供するための有望なソリューションとして迅速に認識されている分散型およびプライバシーを提供するテクノロジーを入力します。
The pervasive AI trust deficit
普及しているAIトラスト赤字
AI emerged as the second most popular category among cryptocurrency investors in early 2024, capturing over 16% of investor interest.
AIは、2024年初頭に暗号通貨投資家の中で2番目に人気のあるカテゴリーとして登場し、投資家の利益の16%以上を獲得しました。
Startups and multinational companies poured considerable resources into expanding the technology to domains such as finances, health, and every other aspect of life.
スタートアップや多国籍企業は、財政、健康、人生の他のあらゆる側面などのドメインに技術を拡大するためにかなりのリソースを注ぎました。
For instance, the emerging DeFi x AI (DeFAI) sector witnessed the launch of more than 7,000 projects, which collectively reached a peak market capitalization of $7 billion early in the year before the market downturn. DeFAI showcased the transformative potential of AI to enhance decentralized finance (DeFi) with natural language commands, enabling users to perform complex multi-step operations and conduct sophisticated market research.
たとえば、新たなDefi X AI(Defai)セクターは、7,000を超えるプロジェクトの開始を目撃しました。 Defaiは、AIの変革の可能性を紹介し、自然言語コマンドを使用して分散財務(DEFI)を強化し、ユーザーが複雑なマルチステップ運用を実行し、洗練された市場調査を実施できるようにしました。
However, innovation alone failed to address AI's core vulnerabilities: hallucinations, manipulation, and privacy concerns.
しかし、イノベーションだけでは、AIの中核的な脆弱性、つまり幻覚、操作、プライバシーの懸念に対処できませんでした。
In November, a user managed to deceive an AI agent on Base into sending $47,000 despite being programmed never to do so. While this scenario was part of a game, it raised real concerns about whether AI agents can be trusted with autonomy over financial operations.
11月、ユーザーは、ベースのAIエージェントを欺き、そうするようにプログラムされているにもかかわらず、47,000ドルを送信しました。このシナリオはゲームの一部でしたが、AIエージェントが金融業務をめぐる自律性で信頼できるかどうかについての真の懸念を提起しました。
Audits, bug bounties, and red teams helped to mitigate the risk of prompt injection, logic flaws, or unauthorized data use. However, according to KPMG in 2023, 61% of people still expressed hesitation to trust AI, and even industry professionals shared that concern.
監査、バグ賞、および赤いチームは、迅速な注入、論理の欠陥、または不正なデータの使用のリスクを軽減するのに役立ちました。しかし、2023年のKPMGによると、61%の人々がAIを信頼することをためらうことを依然として表明しており、業界の専門家でさえその懸念を共有していました。
A Forrester survey cited in Harvard Business Review found that 25% of analysts named trust as AI's biggest obstacle.
Harvard Business Reviewで引用されたForresterの調査では、アナリストの25%がTrustをAIの最大の障害と名付けたことがわかりました。
That skepticism remains strong. A poll conducted at The Wall Street Journal's CIO Network Summit found that 61% of America's top IT leaders are still experimenting with AI agents. The rest were still experimenting or avoiding them altogether, citing lack of reliability, cybersecurity risks, and data privacy as their main concerns.
その懐疑論は強いままです。ウォールストリートジャーナルのCIOネットワークサミットで実施された世論調査では、アメリカのトップITリーダーの61%がまだAIエージェントを実験していることがわかりました。残りは、主な関心事として信頼性の欠如、サイバーセキュリティリスク、およびデータプライバシーの欠如を挙げて、まだそれらを完全に実験または回避していました。
Industries like healthcare are particularly sensitive to these risks. Sharing electronic health records (EHR) with LLMs to improve health outcomes holds great promise but also carries legal and ethical risks without airtight privacy protections.
ヘルスケアのような産業は、これらのリスクに特に敏感です。 Electronic Health Records(EHR)をLLMSと共有して健康結果を改善することは大きな可能性を秘めていますが、気密のプライバシー保護なしでは法的および倫理的リスクもあります。
For example, the healthcare industry is suffering adversely from data privacy breaches. This problem compounds when hospitals share EHR data to train AI algorithms without protecting patient privacy.
たとえば、ヘルスケア業界は、データプライバシー侵害に逆らって苦しんでいます。この問題は、病院がEHRデータを共有して患者のプライバシーを保護せずにAIアルゴリズムを訓練するときに悪化します。
Centralized platforms also face challenges in reconciling user privacy with dataoperability. In a recent report by the Center for Data Innovation, researchers highlighted the need for a decentralized approach to dataoperability.
集中型プラットフォームは、ユーザーのプライバシーをデータタイラビリティと調整する際の課題にも直面しています。 Center for Data Innovationの最近のレポートで、研究者は、データ操作性に対する分散化されたアプローチの必要性を強調しました。
Decentralized, privacy-preserving infrastructure
分散化されたプライバシーを提供するインフラストラクチャ
"All the world is made of faith, and trust, and pixie dust," wrote J.M. Barrie in Peter Pan. Trust isn't just a nice to have in AI — it's foundational.
「すべての世界は信仰と信頼とピクシー・ダストで作られています」とピーター・パンにJM・バリーは書いています。信頼はAIで持っているだけではないだけではありません。それは基本です。
Economists at Moody's Analytic estimate that AI could add $15.7 trillion to the global economy by 2030. But that projected boon may never materialize without it.
ムーディーの分析のエコノミストは、AIが2030年までに世界経済に15.7兆ドルを追加できると推定しています。
Enter decentralized cryptographic systems like zero-knowledge succinct non-interactive arguments of knowledge (ZK-SNARKs). These technologies offer a new path: allowing users to verify AI decisions without revealing personal data or the model's inner workings.
ゼロ知識の簡潔な非相互作用の知識(ZK-SNARKS)のような分散型暗号化システムを入力します。これらのテクノロジーは、新しいパスを提供します。ユーザーが個人データやモデルの内部の仕組みを明らかにすることなくAIの決定を検証できるようにすることです。
This opens the door to a new generation of trustworthy and transparent AI systems.
これにより、新しい世代の信頼できる透明なAIシステムへの扉が開かれます。
By applying privacy-preserving cryptography to machine learning infrastructure, AI can be auditable, trustworthy, and privacy-respecting, especially in sectors like finance and healthcare.
プライバシーを提供する暗号化を機械学習インフラストラクチャに適用することにより、AIは、特に金融やヘルスケアなどのセクターで、監査可能で信頼できる、プライバシーの尊敬を集めることができます。
Recent: Blockchain's next big breakthroughs: What to watch
最近:ブロックチェーンの次の大きなブレークスルー:何を見るべきか
ZK-SNARKs rely on advanced cryptographic proof systems that let one party prove something is true without revealing how. For AI, this enables models to be verified for correctness without disclosing their training data, input values, or proprietary logic.
ZK-Snarksは、どのように明らかにされずに何かが真実であることを1つの当事者に証明できる高度な暗号化された証明システムに依存しています。 AIの場合、これにより、トレーニングデータ、入力値、または独自のロジックを開示せずに、モデルを正確性を検証できます。
Imagine a decentralized AI lending agent. Instead of reviewing full financial records, it checks encrypted credit score proofs to make autonomous loan decisions without accessing sensitive data. This protects both user privacy and institutional risk.
分散型AI貸付剤を想像してください。完全な財務記録を確認する代わりに、暗号化されたクレジットスコアの証明をチェックして、機密データにアクセスすることなく自律的なローンの決定を下します。これにより、ユーザーのプライバシーと制度的リスクの両方が保護されます。
ZK technology also addresses the black-box nature of LLMs. By using dynamic proofs, it's possible to verify AI outputs while shielding both data integrity and model architecture.
ZKテクノロジーは、LLMSのブラックボックスの性質にも対応しています。動的証明を使用することにより、データの整合性とモデルアーキテクチャの両方をシールドしながら、AI出力を検証することができます。
That's a win for users and companies — one no longer fears data misuse, while the other safeguards its IP.
それはユーザーと企業にとっての勝利です。一方はデータの誤用を恐れなくなり、もう1つはIPを保護します。
Toward decentralized AI
分散型AIに向かって
As we enter this new phase of AI, better models alone aren't enough.
AIのこの新しいフェーズに入ると、より良いモデルだけでは十分ではありません。
Users demand transparency; enterprises need resilience; regulators expect accountability.
ユーザーは透明性を要求します。企業には回復力が必要です。規制当局は説明責任を期待しています。
Decentralized, verifiable cryptography delivers all three.
分散型の検証可能な暗号化は、3つすべてを提供します。
Technologies like Z
Zのようなテクノロジー
免責事項:info@kdj.com
提供される情報は取引に関するアドバイスではありません。 kdj.com は、この記事で提供される情報に基づいて行われた投資に対して一切の責任を負いません。暗号通貨は変動性が高いため、十分な調査を行った上で慎重に投資することを強くお勧めします。
このウェブサイトで使用されているコンテンツが著作権を侵害していると思われる場合は、直ちに当社 (info@kdj.com) までご連絡ください。速やかに削除させていただきます。