시가총액: $3.7828T 1.32%
거래량(24시간): $187.8019B -23.56%
  • 시가총액: $3.7828T 1.32%
  • 거래량(24시간): $187.8019B -23.56%
  • 공포와 탐욕 지수:
  • 시가총액: $3.7828T 1.32%
암호화
주제
암호화
소식
cryptostopics
비디오
최고의 뉴스
암호화
주제
암호화
소식
cryptostopics
비디오
bitcoin
bitcoin

$109523.663807 USD

-0.13%

ethereum
ethereum

$4019.526508 USD

2.06%

tether
tether

$1.000482 USD

0.00%

xrp
xrp

$2.776815 USD

0.18%

bnb
bnb

$958.942396 USD

0.12%

solana
solana

$204.294698 USD

3.84%

usd-coin
usd-coin

$0.999693 USD

0.00%

dogecoin
dogecoin

$0.232115 USD

2.09%

tron
tron

$0.338028 USD

0.84%

cardano
cardano

$0.790920 USD

1.50%

hyperliquid
hyperliquid

$44.871443 USD

5.60%

ethena-usde
ethena-usde

$1.000322 USD

0.04%

chainlink
chainlink

$21.034165 USD

2.60%

avalanche
avalanche

$28.794831 USD

-0.54%

stellar
stellar

$0.360466 USD

1.24%

암호화폐 뉴스 기사

DeepSeek 물 테스트 : AI 스포트라이트의 AI 보호 및 자체 복제

2025/09/17 21:49

자체 복제와 같은 AI '국경 위험'에 대한 DeepSeek의 내부 평가는 안전에 대한 중국의 AI 부문에서 인식이 커지고 있음을 나타냅니다. 그러나 그들은 경쟁을 따라갈 수 있습니까?

DeepSeek 물 테스트 : AI 스포트라이트의 AI 보호 및 자체 복제

The buzz around AI is reaching a fever pitch, and with great power comes great responsibility – or at least, it should. DeepSeek, a Hangzhou-based AI startup, is reportedly taking AI safeguards seriously, conducting internal evaluations on potential “frontier risks” like self-replication and cyber-offensive capabilities. It's like they're finally checking under the hood of these digital beasts.

AI 주변의 버즈는 열병에 도달하고 있으며, 큰 힘으로 큰 책임이 있습니다. Hangzhou 기반 AI 스타트 업인 Deepseek는 AI 보호 조치를 진지하게 받아들이고 자체 복제 및 사이버 무의미한 기능과 같은 잠재적 인 "프론티어 위험"에 대한 내부 평가를 수행하고 있습니다. 마침내이 디지털 짐승의 후드 아래에서 확인하는 것과 같습니다.

DeepSeek's Dive into AI Safety

Deepseek은 AI 안전에 빠져 있습니다

DeepSeek's internal evaluations, focusing on self-replication and cyber-offensive capabilities, highlight the growing awareness within China's AI sector about the risks associated with cutting-edge technology. Beijing has urged companies to take safety more seriously as AI systems become increasingly powerful and autonomous. It's a move that signals a growing understanding of the potential pitfalls of unchecked AI development. This is crucial, especially as AI models become more sophisticated and autonomous.

자체 복제 및 사이버 공격 능력에 중점을 둔 DeepSeek의 내부 평가는 중국 AI 부문 내에서 최첨단 기술과 관련된 위험에 대한 인식이 커지고 있음을 강조합니다. 베이징은 AI 시스템이 점점 더 강력하고 자율적이되면서 기업들에게 안전을 더욱 심각하게 받아 들일 것을 촉구했다. 확인되지 않은 AI 개발의 잠재적 인 함정에 대한 이해가 커지는 것은 움직임입니다. 특히 AI 모델이보다 정교하고 자율적이되므로 이것은 중요합니다.

Transparency Tussle

투명성 문제

Unlike their U.S. counterparts like Anthropic and OpenAI, DeepSeek isn’t exactly shouting their findings from the rooftops. Chinese companies generally keep such assessments private. This difference in transparency has sparked debates about accountability and international safety standards. It raises questions about how these risks are being managed and whether enough is being done to ensure AI benefits everyone.

Anthropic 및 Openai와 같은 미국의 상대와는 달리 Deepseek은 옥상에서 결과를 정확히 외치지 않습니다. 중국 회사는 일반적으로 그러한 평가를 비공개로 유지합니다. 이러한 투명성의 차이는 책임과 국제 안전 표준에 대한 논쟁을 일으켰습니다. 이러한 위험이 어떻게 관리되고 있는지, AI가 모든 사람에게 혜택을 줄 수 있도록 충분히 수행되는지에 대한 의문을 제기합니다.

The Self-Replication Scare

자기 복제가 두려워

A report from the Shanghai Artificial Intelligence Laboratory pointed to the need for tighter safeguards in DeepSeek’s most recent systems, particularly against the risk of self-replication. The idea of AI gone rogue is straight out of a sci-fi movie. The fact that experts are flagging this as a real concern is a bit unsettling, to say the least. It's not just about AI doing what we tell it, but what it decides to do on its own.

상하이 인공 지능 실험실의 보고서에 따르면 DeepSeek의 가장 최근 시스템, 특히 자체 복제의 위험에 대해 더 엄격한 보호 조치가 필요하다고 지적했습니다. AI Gone Rogue의 아이디어는 공상 과학 영화에서 나온 것입니다. 전문가들이 이것을 실제 관심사로 표시한다는 사실은 조금 불안한 일입니다. AI가 우리가 말하는 일을하는 것이 아니라 스스로하기로 결정한 것입니다.

DeepSeek's Next Move

Deepseek의 다음 움직임

Founded in Hangzhou, DeepSeek gained prominence in January 2025 when it launched its R1 reasoning model, which was praised for delivering OpenAI-level performance at a fraction of the cost. Despite the achievement, the company has since released only incremental updates, while rivals in both China and the U.S. have accelerated new model launches. Sources say the company is now working on a new agent-focused AI model expected to be unveiled in Q4 2025. Unlike traditional chatbots, this system will be designed to execute complex multi-step tasks, learn from past actions, and function with minimal human input. If successful, the model could position DeepSeek to compete directly with Western players pursuing similar agent-based technologies.

Hangzhou에서 설립 된 Deepseek은 2025 년 1 월 R1 추론 모델을 시작했을 때 명성을 얻었으며, 이는 비용의 일부로 OpenAi 수준의 성능을 제공 한 것에 대해 칭찬을 받았습니다. 성과에도 불구 하고이 회사는 이후 증분 업데이트 만 출시 한 반면 중국과 미국의 라이벌은 새로운 모델 출시를 가속화했습니다. 소식통에 따르면이 회사는 현재 2025 년 4 분기에 발표 될 새로운 에이전트 중심의 AI 모델을 연구하고 있다고한다. 전통적인 챗봇과 달리이 시스템은 복잡한 다중 단계 작업을 실행하고 과거의 행동을 배우고 최소한의 사람의 입력을 통해 기능하도록 설계 될 것이다. 성공하면이 모델은 비슷한 에이전트 기반 기술을 추구하는 서양 플레이어와 직접 경쟁 할 수있는 Deepseek을 배치 할 수 있습니다.

The Competitive Arena

경쟁력있는 분야

DeepSeek is among the 22 Chinese tech giants pledging to uphold AI safety. However, they’re facing stiff competition from rivals with deeper pockets. Giants like Alibaba, Baidu, and Tencent are pouring billions into AI development. DeepSeek’s cautious approach might be commendable, but it could also put them at a disadvantage. It's a race against time, and only the swiftest and safest will survive.

Deepseek은 AI 안전을지지하기 위해 22 명의 중국 기술 거인 중 하나입니다. 그러나 그들은 더 깊은 주머니로 라이벌과의 치열한 경쟁에 직면하고 있습니다. Alibaba, Baidu 및 Tencent와 같은 거인들은 AI 개발에 수십억을 쏟아 부었습니다. Deepseek의 신중한 접근 방식은 칭찬 할 수 있지만 불리한 점이있을 수 있습니다. 그것은 시간과의 경쟁이며, 가장 신속하고 안전한 사람들 만 살아남을 것입니다.

My Two Cents

내 두 센트

While DeepSeek’s focus on AI safeguards is a welcome sign, the lack of transparency is a bit concerning. Openness is key to building trust and ensuring that AI development aligns with societal values. The self-replication risk needs serious attention. It's not enough to just acknowledge the risk; concrete steps need to be taken to prevent it. My take? DeepSeek needs to balance safety with innovation. They can’t afford to be left behind, but they also can't afford to unleash something they can't control.

AI 보호 수단에 대한 DeepSeek의 초점은 환영의 신호이지만 투명성 부족은 약간 관련이 있습니다. 개방성은 신뢰를 구축하고 AI 개발이 사회적 가치와 일치하도록하는 데 중요합니다. 자체 복제 위험은 심각한주의가 필요합니다. 위험을 인정하는 것만으로는 충분하지 않습니다. 이를 방지하려면 구체적인 단계를 수행해야합니다. 내 테이크? Deepseek은 안전의 혁신 균형을 유지해야합니다. 그들은 뒤에 남을 여유가 없지만 통제 할 수없는 것을 방해 할 여유가 없습니다.

So, as DeepSeek navigates the choppy waters of AI development, let’s hope they keep a steady hand on the wheel. After all, we're all passengers on this AI-powered ride. Buckle up, folks!

따라서 Deepseek이 AI 개발의 고르지 않은 물을 항해함에 따라 그들이 바퀴에 꾸준한 손을 잡을 수 있기를 바랍니다. 결국, 우리는이 AI 기반 타기를하는 승객들입니다. 버클 위로, 여러분!

원본 소스:coincentral

부인 성명:info@kdj.com

제공된 정보는 거래 조언이 아닙니다. kdj.com은 이 기사에 제공된 정보를 기반으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다. 암호화폐는 변동성이 매우 높으므로 철저한 조사 후 신중하게 투자하는 것이 좋습니다!

본 웹사이트에 사용된 내용이 귀하의 저작권을 침해한다고 판단되는 경우, 즉시 당사(info@kdj.com)로 연락주시면 즉시 삭제하도록 하겠습니다.

2025年09月28日 에 게재된 다른 기사