Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov
Người tạo ra AuditAgent và AgentArena của Nethermind | Công cụ AI cho bảo mật Web3
Mới trở về sau một tuần lễ căng thẳng tại @EFDevcon ở Buenos Aires: hai buổi thảo luận, một bài nói về tương lai của các kiểm toán viên hợp đồng thông minh, một hội thảo Agent Arena, và đánh giá cuộc thi @ETHGlobal Hackathon. Năm nay, Devconnect thực sự cảm thấy như một Hội chợ Thế giới Ethereum — ít cuộc trò chuyện về một tương lai xa xôi hơn và nhiều hơn về các sản phẩm đã hoạt động trong thực tế và đang di chuyển tiền thật.
Điều tôi rút ra được: @ethereum vẫn trông như là hệ sinh thái nghiêm túc nhất cho việc áp dụng lâu dài, đặc biệt trong tài chính phi tập trung. Điều đó không có nghĩa là các hệ sinh thái khác không có cơ hội — nhưng sự trưởng thành của các tiêu chuẩn, độ sâu của cơ sở hạ tầng, và sự tập trung của các nhà phát triển vẫn đang nghiêng về phía Ethereum.
Nói vậy, câu chuyện về việc mở rộng thông qua L2s vẫn còn xa mới được giải quyết. Theo quan điểm của tôi, đã có một bước đi chiến lược sai lầm: hệ sinh thái đã nhận được một cú hích công nghệ lớn nhưng với cái giá phải trả là trải nghiệm người dùng bị phân mảnh nghiêm trọng. Người dùng không hoàn toàn nhận thức rằng L2s là Ethereum — nhưng họ rất rõ ràng cảm nhận được những rủi ro của các cầu nối và sự phân mảnh thanh khoản. Tôi vẫn mong điều này sẽ được khắc phục, đơn giản vì quá nhiều đội ngũ mạnh đang làm việc để không để mọi thứ "như cũ".
Vector chính thứ hai mà thực sự đã rõ ràng với tôi là sự phối hợp của các tác nhân onchain, đặc biệt là các tác nhân tài chính: các tiêu chuẩn như ERC‑8004 và các giao thức thanh toán như X402 có thể trở thành "hệ điều hành" cơ bản cho cách các tác nhân di chuyển thanh khoản và tương tác với nhau trong những năm tới. Tôi dự định sẽ tập trung chặt chẽ vào giao điểm này của các tác nhân, thanh toán và DeFi.
Và tất nhiên, chủ đề chính của tôi — kiểm toán AI cho các hợp đồng thông minh. Điều mà không lâu trước đây trông như "một món đồ chơi thỉnh thoảng tìm thấy điều gì đó" giờ đây đang chuyển thành các công cụ đáng tin cậy phát hiện các vấn đề nghiêm trọng và đã được sử dụng bởi cả các kiểm toán viên và nhà phát triển — đôi khi phát hiện ra những điều mà con người bỏ lỡ. Thật tuyệt khi được kết nối lại với những người xây dựng các sản phẩm thực sự thay đổi cách chúng ta sử dụng DeFi và cảm thấy như một phần của quá trình đó.




835
AGI sẽ không đến trong 2 năm: @ilyasut vừa làm tan vỡ huyền thoại yêu thích của Silicon Valley
Trong một cuộc phỏng vấn mới với Dwarkesh Patel, Ilya Sutskever đã có một bước ngoặt khá sắc bén trong cuộc trò chuyện về tương lai của AI: “thời đại của việc mở rộng đơn giản đã kết thúc; từ đây trở đi, chúng ta cần những phát hiện mới.”
Nhưng đối với tôi, phần quan trọng nhất của cuộc phỏng vấn này không phải là sự kết thúc của cách tiếp cận “tính toán trước”. Đó là thời gian cho AGI của ông: từ 5 đến 20 năm. Nói cách khác, một trong những người đứng sau những mô hình mạnh mẽ nhất thế giới đang nghiêm túc xem xét các kịch bản hơn 10 năm nữa.
Điều đó hoàn toàn trái ngược với câu chuyện “AGI trong 1–2 năm” mà chúng ta vẫn nghe từ một số nhà sáng lập và nhà đầu tư. Rồi 1–2 năm trôi qua, và chúng ta thấy kỳ vọng đã xa rời thực tế như thế nào: các mô hình đã trở nên mạnh mẽ hơn, nhưng đây vẫn không phải là một “trí tuệ phổ quát” xóa sổ mọi thứ. Khi một người có đẳng cấp như Sutskever nói “5–20 năm”, tôi hiểu điều đó là: nó sẽ đến, nhưng không phải ngày mai, và có lẽ cũng không phải ngày hôm sau.
Từ đây, có một kết luận thực tiễn quan trọng. Những ý tưởng như “dù bạn xây dựng startup nào — OpenAI cũng sẽ nuốt chửng nó” hoặc “dù bạn chọn nghề nào — AGI sẽ phá hủy nó” nghe có vẻ phóng đại nặng nề. Thị trường chắc chắn sẽ thay đổi, và nhanh chóng theo tiêu chuẩn lịch sử, nhưng con người và các công ty sẽ có một khoảng thời gian để thích nghi. Với một điều kiện: bạn phải chuẩn bị cho những thay đổi này — bạn thử nghiệm với AI trong công việc của mình, đầu tư thời gian vào các kỹ năng mới, học cách xây dựng hệ thống dựa trên các mô hình thay vì chỉ “sợ hãi chúng.”
Cùng lúc đó, chúng ta cũng không nên có ảo tưởng. Cấu trúc việc làm sẽ thay đổi, một số vai trò sẽ bị giảm giá trị, và một số người thực sự sẽ bị ảnh hưởng — chủ yếu là những người chọn “chờ đợi” và không thay đổi gì trong khi họ vẫn có thể. Theo quan điểm của tôi, thập kỷ tới không phải là một khoảnh khắc của “công tắc AGI kỳ diệu”, mà là một quá trình dài, đôi khi đau đớn trong việc định hình lại các thị trường và năng lực. Và chính trong giai đoạn này, sẽ được quyết định ai sẽ ở vị trí thắng lợi — và ai thì không.

289
Sự độc quyền của các hyperscaler đối với các mô hình tiên tiến đang bị rạn nứt: RL phi tập trung thực sự hoạt động!
Tôi vẫn không thể hoàn toàn hiểu được thực tế rằng ai đó thực sự đã thực hiện việc đào tạo phi tập trung cho một mô hình ngôn ngữ lớn.
Trong nhiều năm, việc đào tạo phân tán đối với tôi đồng nghĩa với đau đớn: ngay khi các GPU bắt đầu xa nhau về mặt vật lý — ngay cả trong cùng một máy — bạn sẽ gặp phải chi phí overhead, vấn đề đồng bộ hóa, tắc nghẽn mạng, và mọi thứ chậm lại đến mức không thể chấp nhận được. Ngành công nghiệp đã giải quyết điều này bằng các trung tâm dữ liệu đắt đỏ và mạng lưới siêu dày đặc, điều này ngay lập tức nâng cao tiêu chuẩn lên cao đến mức chỉ một vài công ty trên thế giới có thể tham gia vào cấp độ mô hình tiên tiến.
Và trong bối cảnh này, @PrimeIntellect phát hành INTELLECT‑3 — một mô hình MoE 106B được đào tạo phi tập trung, với RL quy mô lớn ở trên. Trên các chỉ số, nó đánh bại GLM‑4.5 và DeepSeek‑R1‑0528, và về toán học, nó cung cấp SOTA cho kích thước của nó (MATH‑500, AIME24). Vì vậy, đây không phải là một "thí nghiệm phân cấp thú vị", mà là một đối thủ cạnh tranh cấp độ tiên tiến thực sự. Thành thật mà nói, tôi đã mong đợi điều gì đó như "vâng, nó chạy, nhưng chất lượng thì kém hơn nhiều." Thay vào đó — đây là một kết quả rất nghiêm túc.
Mảnh ghép chính là khung RL không đồng bộ của họ, prime‑rl, có thể đào tạo một mô hình trên một nhóm GPU phi tập trung: từ GPU tiêu dùng đến các trung tâm dữ liệu độc lập do các nhà điều hành khác nhau điều hành. RL không đồng bộ ngoài chính sách ở quy mô đó là một cơn ác mộng kỹ thuật, và Prime về cơ bản là những người duy nhất đã đẩy nó đến một sản phẩm hoạt động cho đến nay. Ngoài ra, họ đã mã nguồn mở không chỉ prime‑rl, mà còn cả INTELLECT‑3 (MIT/Apache 2.0) và tập dữ liệu SYNTHETIC‑2, được thu thập thông qua suy diễn phi tập trung (1250+ GPU trong ba ngày). Đây không chỉ là "một mô hình khác trên HF", mà là một phần hạ tầng phá vỡ câu chuyện cũ rằng các mô hình nghiêm túc chỉ có thể thực hiện trong các phòng thí nghiệm của các hyperscaler đóng kín.
Nếu một số lượng đáng kể các nhà nghiên cứu và startup trên toàn thế giới có quyền truy cập vào các công cụ và hạ tầng như thế này, nó có thể thúc đẩy tiến bộ trong các mô hình lý luận một cách mạnh mẽ và, cuối cùng, đưa chúng ta đến gần AGI hơn nhanh hơn nhiều so với nhiều người mong đợi. Đối với tôi, đây giống như một trong những trường hợp hiếm hoi mà một rào cản dường như không thể vượt qua về mặt cấu trúc (mạng, phối hợp, chi phí) bỗng nhiên bắt đầu nứt ra. Tôi coi đây là một thành tựu cực kỳ quan trọng — ở cấp độ của một "thay đổi quỹ đạo" cho hệ sinh thái, không chỉ là một bản phát hành khác.

469
Hàng đầu
Thứ hạng
Yêu thích

