OpenAI và Anthropic kiểm tra chéo các vấn đề về ảo giác mô hình và an toàn.

robot
Đang tạo bản tóm tắt

Dữ liệu Jin10 ngày 28 tháng 8, OpenAI và Anthropic gần đây đã đánh giá lẫn nhau về các mô hình của mình, nhằm phát hiện ra những vấn đề có thể bị bỏ sót trong các bài kiểm tra của chính họ. Cả hai công ty đã cho biết vào thứ Tư trên blog của mình rằng vào mùa hè năm nay, họ đã thực hiện các bài kiểm tra an ninh đối với các mô hình AI có sẵn công khai của nhau, và kiểm tra xem các mô hình có xu hướng ảo giác hay không, cũng như vấn đề gọi là "mất chuẩn" (misalignment), tức là các mô hình không hoạt động như mong đợi của nhà phát triển. Các đánh giá này được hoàn thành trước khi OpenAI ra mắt GPT-5 và Anthropic phát hành Opus 4.1 vào đầu tháng 8. Anthropic được thành lập bởi các cựu nhân viên của OpenAI.

GPT-1.75%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Chia sẻ
Chủ đề liên quan
#
ai
Bình luận
0/400
Không có bình luận
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)