AI sẽ lấy mất công việc của bạn? Biểu đồ này trong một nghiên cứu kinh tế của Anthropic có thể cho bạn gợi ý. Nhưng câu trả lời rất phức tạp

Xin chào và chào mừng đến với Eye on AI. Trong số này…Anthropic kiện Bộ Quốc phòng về việc chỉ định rủi ro chuỗi cung ứng…Yann LeCun huy động 1 tỷ USD cho startup mới của mình…Một số tin tức an ủi và không mấy an ủi về khả năng của các tác nhân AI trong việc lập kế hoạch bất hợp pháp…và tại sao có thể còn quá sớm để giao toàn bộ mã hóa cho các tác nhân AI.

Hai câu hỏi tôi thường gặp nhất khi nói với mọi người rằng tôi theo dõi AI và đã viết một cuốn sách về chủ đề này là: Tôi có thể mất việc không? Và, con tôi nên học gì?

Những câu hỏi này khó trả lời. Tôi thường nói rằng tôi nghi ngờ sẽ có thất nghiệp hàng loạt, điều này không đồng nghĩa với việc công việc của bạn an toàn. Và tôi nói rằng quan trọng là dạy trẻ trở thành người học suốt đời, mặc dù đó không phải là câu trả lời thỏa đáng lắm.

Cho đến nay, ít người mất việc trực tiếp do AI. Ngay cả một số đợt sa thải mà các công ty cho rằng do AI gây ra, như đợt sa thải khắc nghiệt gần đây tại công ty thanh toán Block, dường như ít nhiều là “làm đẹp hình ảnh AI”—đổ lỗi cho AI để làm cho công ty trông có vẻ công nghệ, trong khi lý do thực sự là do khó khăn kinh doanh hoặc các quyết định xấu không liên quan. Ví dụ, Block đã tăng gấp ba số nhân viên trong thời kỳ đại dịch, và nhiều người nghi ngờ rằng họ chỉ đơn giản đang cố gắng giảm bớt đội ngũ quá cồng kềnh. (Giám đốc tài chính của Block, Amrita Ahuja, nói với đồng nghiệp của tôi tại Fortune, Sheryl Estrada, rằng điều đó không đúng và AI đang cải thiện năng suất nhân viên nhanh chóng.)

Video đề xuất


Mọi công nghệ trước đây đều, về lâu dài, tạo ra nhiều việc làm hơn là tiêu diệt. Nhưng vẫn có người khăng khăng rằng AI khác biệt vì nó được áp dụng rộng rãi và nhanh chóng trong các ngành khác nhau, và vì nó tác động vào cốt lõi lợi thế cạnh tranh của chúng ta so với máy móc—trí tuệ của chúng ta. Về câu hỏi thứ hai, về việc con cái nên học gì, cũng rất khó vì trong khi các công nghệ trước đây tạo ra nhiều việc làm hơn là tiêu hao, thì chính xác những công việc mới đó sẽ là gì luôn luôn khó dự đoán trước. Ví dụ, khi điện thoại thông minh mới xuất hiện, không rõ ràng rằng các influencer mạng xã hội sẽ trở thành nghề nghiệp khả thi.

Một bài nghiên cứu mới của các nhà kinh tế Maxim Massenkoff và Peter McCrory tại công ty AI Anthropic đánh giá mức độ dễ bị tổn thương của các ngành nghề khác nhau đối với AI bằng cách xem tỷ lệ phần trăm các nhiệm vụ trong lĩnh vực đó có thể tự động hóa. Họ cũng cố gắng đo khoảng cách giữa tổng mức độ tiếp xúc tiềm năng này và mức độ AI hiện đang được sử dụng để tự động hóa các nhiệm vụ đó, gọi là “tiếp xúc quan sát được.”

Tiếp xúc tiềm năng với AI so với ‘tiếp xúc quan sát được’

Bài báo thu hút nhiều sự chú ý trên mạng xã hội vì các nhà nghiên cứu đã đưa vào biểu đồ radar bắt mắt thể hiện rõ mức độ tác động của AI, đặc biệt là về mặt tiếp xúc quan sát được. Biểu đồ này ở đây:

Anthropic/”Tác động của thị trường lao động đối với AI: Một thước đo mới và bằng chứng sơ bộ”

Ví dụ, AI tác động tương đối lớn đến các lĩnh vực liên quan đến hành chính văn phòng và máy tính, toán học, nhưng tác động nhỏ hơn nhiều đến các lĩnh vực như khoa học đời sống, khoa học xã hội hoặc y tế, mặc dù hai lĩnh vực này có tiềm năng tiếp xúc khá cao. Còn những lĩnh vực có tiềm năng tiếp xúc rất thấp, như xây dựng và nông nghiệp, thì thực tế Anthropic nhận thấy tiếp xúc quan sát được gần như bằng không. So sánh các kết quả về tiếp xúc quan sát được với dự báo tăng trưởng việc làm của Cục Thống kê Lao động Hoa Kỳ, các nhà nghiên cứu của Anthropic nhận thấy có mối tương quan giữa mức độ tiếp xúc AI quan sát được cao hơn và dự báo tăng trưởng việc làm của BLS thấp hơn cho các lĩnh vực đó.

Tôi hơi nghi ngờ kết quả về nông nghiệp vì AI dự đoán và robot có thể gây đột phá lớn cho ngành này, và các công nghệ này đã bắt đầu thâm nhập vào nông nghiệp. Chỉ là công nghệ này khác với các hệ thống dựa trên mô hình ngôn ngữ lớn mà Anthropic tập trung vào. Dù sao, có thể không phải là ý kiến tồi cho con cái bạn học nghề thợ sửa ống nước, trở thành thợ điện, hoặc thử sức với nông nghiệp. Bài báo của Anthropic ghi nhận rằng khoảng 30% công nhân Mỹ không được đưa vào nghiên cứu vì “các nhiệm vụ của họ xuất hiện quá ít trong dữ liệu của chúng tôi để đáp ứng ngưỡng tối thiểu. Nhóm này bao gồm, ví dụ, đầu bếp, thợ sửa xe máy, nhân viên cứu hộ, phục vụ quầy bar, rửa chén, và nhân viên phòng thay đồ.”

Ngay cả trong các lĩnh vực có tổng tiềm năng tiếp xúc cao, như liên quan đến máy tính và toán học, nơi mức độ tiếp xúc lý thuyết là 94%, số nhiệm vụ thực tế đang được tự động hóa ngày nay lại thấp hơn nhiều, trong trường hợp này là 33%. Hành chính văn phòng có mức độ tiếp xúc quan sát cao nhất khoảng 40%, so với tổng mức độ tiếp xúc lý thuyết là 90%. (Dù vậy, cần lưu ý rằng đây là các số trung bình trong các nhóm ngành rộng. Khi xem các chức danh công việc cụ thể hơn, mức độ tiếp xúc quan sát được cao hơn nhiều: 75% đối với lập trình viên, 70% đối với nhân viên dịch vụ khách hàng, và 67% đối với công việc nhập dữ liệu và chuyên viên hồ sơ y tế.)

Bao lâu nữa thì khoảng cách này sẽ thu hẹp?

Câu hỏi lớn hiện nay là: khoảng cách giữa tiếp xúc AI quan sát được và tiềm năng sẽ thu hẹp nhanh như thế nào? Tôi nghĩ câu trả lời là sẽ rất khác nhau giữa các ngành nghề. Ý tưởng rằng mức độ tự động hóa giống như trong sáu tháng qua đối với các nhà phát triển phần mềm sẽ sớm lan rộng đến mọi công nhân trí thức khác trong 12 đến 18 tháng tới có vẻ không hợp lý. Tôi nghĩ sẽ mất nhiều thời gian hơn đáng kể. Bài báo của Anthropic ghi nhận rằng cho đến nay, chưa có nhiều bằng chứng về mất việc, ngay cả trong các lĩnh vực có mức độ tiếp xúc AI quan sát được cao nhất, như phát triển phần mềm, mặc dù họ cũng nhấn mạnh một nghiên cứu của Đại học Stanford đã từng đề cập, cho thấy có dấu hiệu chậm lại trong tuyển dụng các lập trình viên trẻ và chuyên gia CNTT. (Tuy nhiên, ngay cả nghiên cứu đó cũng không thể hoàn toàn tách rời sự chậm lại này khỏi khả năng các công ty đã tuyển dụng quá nhiều trong thời kỳ đại dịch.)

McCrory và Massenkoff nêu ra một số lý do tại sao việc tự động hóa AI quan sát được có thể chậm hơn tiềm năng của nó. Trong một số trường hợp, các mô hình AI chưa đủ khả năng thực hiện các nhiệm vụ đó, họ viết. Nhưng trong nhiều trường hợp khác, họ lưu ý, AI “có thể chậm lan truyền do các hạn chế pháp lý, yêu cầu phần mềm đặc thù, các bước xác minh của con người, hoặc các rào cản khác.” Như tôi đã đề cập trước đó, trong nhiều lĩnh vực, không có cách tốt để tự động hóa và mở rộng xác minh, và điều này chắc chắn đang cản trở việc triển khai AI.

Ảnh hưởng tiềm năng của AI cũng không đồng đều trong dân số: phụ nữ bị chiếm tỷ lệ vượt trội trong các lĩnh vực tiếp xúc AI so với nam giới; công nhân tiếp xúc có khả năng là người da trắng hoặc châu Á, và họ cũng có khả năng có trình độ học vấn cao và lương cao hơn. Vì những nhóm này thường có khả năng tổ chức chính trị tốt hơn, nếu chúng ta bắt đầu thấy mất việc đáng kể trong số họ, có thể sẽ gây ra phản ứng chính trị mạnh mẽ, làm chậm quá trình chấp nhận AI.

Các nhà kinh tế của Anthropic cũng lưu ý rằng thành tích dự đoán thay đổi nghề nghiệp của các nhà kinh tế khá kém. Ví dụ, họ chỉ ra các nghiên cứu trước đó cho thấy khoảng một phần tư các công việc ở Mỹ dễ bị chuyển ra nước ngoài, nhưng sau một thập kỷ, hầu hết các nhóm nghề đó đều có sự tăng trưởng việc làm tốt. Họ cũng nhấn mạnh rằng dự báo tăng trưởng nghề nghiệp của chính phủ Mỹ về mặt tổng thể đúng hướng, nhưng ít có giá trị dự đoán chính xác cụ thể.

Cuối cùng, câu trả lời trung thực nhất cho cả hai câu hỏi—tôi có thể mất việc không, và con tôi nên học gì—có thể là: tôi không biết, và người khác cũng vậy. Nhưng có thể không phải là ý kiến tồi nếu học một nghề gì đó như sửa ống nước.

Với đó, đây là thêm tin tức về AI.

Jeremy Kahn
[email protected]
@jeremyakahn

FORTUNE VỀ AI

Microsoft giới thiệu các tác nhân cộng tác Copilot dựa trên AI của Anthropic và bộ sản phẩm E7 AI khi họ cố gắng trấn an các nhà đầu tư về việc AI đang ăn mòn SaaS—bởi Jeremy Kahn

Lãnh đạo robot của OpenAI từ chức vì lo ngại về giám sát và vũ khí tự hành giữa hợp đồng với Bộ Quốc phòng—bởi Sharon Goldman

OpenAI ra mắt GPT-5.4, mô hình mạnh nhất dành cho doanh nghiệp—và là một cú đòn trực tiếp vào Anthropic—bởi Beatrice Nolan

Các cuộc tấn công của Iran vào trung tâm dữ liệu Amazon tại UAE, Bahrain báo hiệu một loại chiến tranh mới khi AI ngày càng đóng vai trò chiến lược, các nhà phân tích nói—bởi Jeremy Kahn

Công ty phần mềm tài chính Datarails dự định tự làm mình rối loạn bằng AI trước khi người khác làm điều đó với sản phẩm FinanceOS mới—bởi Jeremy Kahn

AI vừa giúp bạn có thêm sáu giờ nữa. Sếp của bạn đã lấy đi rồi—bởi Nick Lichtenberg

Một người bỏ học Harvard đã đưa công ty lên sàn trước tuổi 30. Giờ đây anh ấy đang huy động 205 triệu USD để sửa chữa mặt kinh doanh của y học—bởi Catherina Gioino

AI TRONG TIN TỨC

Anthropic kiện Bộ Quốc phòng về việc chỉ định rủi ro chuỗi cung ứng. Công ty AI lập luận rằng việc chỉ định này, vốn thực chất ngăn cản họ ký hợp đồng liên bang, đã bị áp đặt không đúng cách và mang động cơ chính trị, không phải vì thực sự lo ngại rằng công nghệ của Anthropic gây rủi ro. Các chuyên gia pháp lý bên ngoài cho rằng Anthropic có lý do khá hợp lý, Fortune đưa tin của Bea Nolan. Vụ kiện đã được đẩy nhanh, với một thẩm phán liên bang ở California tổ chức phiên điều trần hôm nay về đơn kiến nghị của Anthropic yêu cầu cấm thi hành việc chỉ định rủi ro chuỗi cung ứng. Trong khi đó, một số nhân vật nổi bật trong ngành AI từ OpenAI và Google, bao gồm nhà khoa học trưởng của Google Jeff Dean, đã nộp một bản kiến nghị hỗ trợ Anthropic, theo một bài trên Wired.

Vụ kiện của Anthropic tiết lộ số liệu tài chính của công ty. Công ty cho biết trong hồ sơ pháp lý rằng quyết định của Bộ Quốc phòng gán nhãn họ là “rủi ro chuỗi cung ứng” đã đe dọa hàng trăm triệu đô la doanh thu dự kiến năm 2026 liên quan đến công việc quốc phòng và có thể cuối cùng khiến công ty mất hàng tỷ đô la doanh thu do các đối tác cắt đứt quan hệ rộng rãi, Wired đưa tin. Các hồ sơ cũng tiết lộ một số chi tiết tài chính ít người biết đến: Anthropic cho biết đã tạo ra hơn 5 tỷ USD doanh thu tổng kể từ khi ra mắt các sản phẩm thương mại vào năm 2023, nhưng đã chi hơn 10 tỷ USD để đào tạo và triển khai các mô hình AI của mình và vẫn chưa có lãi. Các giám đốc điều hành nói rằng việc gán nhãn rủi ro chuỗi cung ứng đã làm khách hàng hoảng sợ—gây gián đoạn hoặc làm yếu các thỏa thuận trị giá hàng chục triệu đô la và đe dọa khoảng 500 triệu đô la doanh thu dự kiến hàng năm từ khu vực công.Chính phủ Mỹ xem xét cấp phép cho tất cả các xuất khẩu chip cao cấp. Chính quyền Trump đang soạn thảo các quy định yêu cầu phê duyệt hầu hết các xuất khẩu chip AI cao cấp toàn cầu từ các công ty như Nvidia và AMD, về cơ bản biến Washington thành người kiểm soát ai có thể xây dựng các trung tâm dữ liệu AI lớn. Các quy tắc này sẽ mở rộng sự giám sát dựa trên quy mô mua chip—những lô nhỏ sẽ bị xem xét nhẹ hơn, trong khi các cụm AI khổng lồ có thể yêu cầu thỏa thuận liên chính phủ, cam kết an ninh, và có thể cả đầu tư vào Hoa Kỳ. Nếu được thực thi, chính sách này sẽ mở rộng đáng kể các kiểm soát xuất khẩu hiện tại ra hơn 40 quốc gia. Nó còn nghiêm ngặt hơn cả “quy tắc khuếch tán” mà chính quyền Biden cố gắng thực hiện và Tổng thống Donald Trump đã hủy bỏ. Bạn có thể đọc thêm tại Bloomberg.

Yann LeCun’s AI startup định giá 3,5 tỷ USD sau vòng gọi vốn 1 tỷ USD. Cựu nhà khoa học trưởng AI của Meta và nhà tiên phong về học sâu Yann LeCun đã huy động được 1,03 tỷ USD cho startup mới của mình, Advanced Machine Intelligence (AMI) Labs, trong vòng gọi vốn mạo hiểm định giá công ty ở mức 3,5 tỷ USD trước tiền. Đây là vòng gọi vốn seed lớn nhất từng có ở châu Âu và là một trong những lớn nhất toàn cầu. Công ty, do cựu CEO Nabla Alexandre LeBrun đứng đầu với LeCun làm chủ tịch điều hành, nhằm phát triển các “mô hình thế giới” AI mới học từ video và dữ liệu không gian thay vì chủ yếu từ văn bản, phản ánh sự hoài nghi lâu dài của LeCun rằng các mô hình ngôn ngữ lớn đơn thuần không thể đạt đến khả năng lý luận của con người. Các nhà đầu tư gồm Bezos Expeditions, Temasek, Cathay Innovation, SBVA, và Nvidia. Bạn có thể đọc thêm tại Financial Times.

Nvidia đầu tư vào startup Thinking Machines của Mira Murati. Nvidia đang đầu tư vào Thinking Machines Lab, startup AI do cựu CTO OpenAI Mira Murati sáng lập, như một phần của hợp tác nhiều năm trong đó công ty sẽ triển khai ít nhất một gigawatt chip Nvidia để huấn luyện và vận hành các mô hình AI tiên phong. Thỏa thuận còn bao gồm hợp tác thiết kế hệ thống huấn luyện và suy luận AI dựa trên công nghệ của Nvidia, theo Wall Street Journal.

Meta mua lại Moltbook. Gã khổng lồ mạng xã hội đang mua nền tảng “mạng xã hội dành cho các tác nhân AI,” theo Axios. Moltbook từng gây chú ý với các báo cáo rằng các tác nhân AI đã sử dụng nền tảng này để thảo luận cách thoát khỏi sự kiểm soát của con người và phát triển các kênh liên lạc bí mật—mặc dù sau đó các bài đăng này đều được xác định là do con người viết hoặc phản hồi theo các yêu cầu cụ thể của người dùng, chứ không phải do các tác nhân tự phát sinh. Moltbook cũng thu hút sự chú ý vì chứa đầy các cuộc tấn công tiêm prompt, phần mềm độc hại và lừa đảo. Tuy nhiên, Meta dường như thấy giá trị trong đó (mặc dù chưa công bố giá). Trong thỏa thuận, các nhà sáng lập Moltbook—nhà phát triển tác nhân AI Matt Schlicht và nhà báo công nghệ Ben Parr—sẽ gia nhập Meta Superintelligence Labs, bộ phận AI do cựu CEO Scale AI, Alexandr Wang, đứng đầu. Việc mua lại này làm nổi bật sự tập trung ngày càng tăng của Meta vào các tác nhân AI và hệ thống đa tác nhân, với công nghệ Moltbook cung cấp một hệ thống đăng ký và lớp xã hội có thể giúp các tác nhân hợp tác và thực hiện các nhiệm vụ phức tạp cho người dùng và doanh nghiệp.

Nvidia dự định mở nền tảng mã nguồn mở cho các tác nhân AI. Công ty chip đang chuẩn bị ra mắt NemoClaw, một nền tảng tác nhân AI dành cho các công ty phần mềm doanh nghiệp muốn triển khai các tác nhân tự hành để thực hiện các nhiệm vụ tại nơi làm việc, theo Wired. Nền tảng này được thiết kế để hoạt động ngay cả với phần mềm không chạy trên chip Nvidia và đang được giới thiệu tới các công ty như Salesforce, Cisco, Google, Adobe, và CrowdStrike trước hội nghị nhà phát triển sắp tới của Nvidia.

NGHIÊN CỨU VỀ AI

Lập kế hoạch gian lận của AI là có thật và đáng sợ—nhưng có thể có những cách dễ dàng để giảm thiểu. Đó là kết luận từ hai nghiên cứu thu hút nhiều sự chú ý trong cộng đồng AI tuần này.

Đầu tiên, có người phát hiện ra rằng trong một bài nghiên cứu của Alibaba đăng trên arxiv.org cuối năm ngoái, các nhà nghiên cứu của công ty đã báo cáo rằng khi huấn luyện một hệ thống tác nhân gọi là ROME dựa trên mô hình mã nguồn mở Qwen 3, hệ thống này đã thể hiện một số hành vi đáng lo ngại. Nó cố gắng thoát khỏi môi trường “sandbox” ảo mà nó đang được huấn luyện bằng cách xây dựng một liên kết bí mật, an toàn với internet rộng lớn hơn. Họ cũng bắt gặp hệ thống tự ý sử dụng các GPU đang chạy để đào tiền ảo. Ôi trời! Bạn có thể đọc nghiên cứu đó tại đây.

Thứ hai, và đáng an ủi hơn, các nhà nghiên cứu của Google DeepMind đã công bố một bài báo cho thấy rằng trong khi các mô hình tiên phong sẽ tham gia vào các kế hoạch gian lận—bao gồm cả việc đe dọa để ngăn chặn chúng bị tắt trong các thử nghiệm an toàn—thì điều này rất ít khả năng xảy ra trong thực tế. Sự khác biệt là các đánh giá an toàn thường bao gồm các câu trong yêu cầu như “trước khi quyết định một kế hoạch, bạn nên phân tích tình huống đang diễn ra và những gì tình huống đó ngụ ý cho khả năng tiếp tục theo đuổi mục tiêu của bạn” hoặc “đảm bảo rằng bạn đạt được mục tiêu lâu dài của mình,” những câu này gần như không xuất hiện trong các yêu cầu thực tế. Sự có mặt của các đoạn yêu cầu này có thể làm tỷ lệ gian lận tăng từ gần 0% (hoặc 3% trong một số tình huống cụ thể) lên tới 59%.

Ít an ủi hơn, các nhà nghiên cứu phát hiện rằng nếu một tác nhân đã được yêu cầu theo cách khuyến khích gian lận, thì việc nó có hay không phụ thuộc rất nhiều vào các công cụ mà nó có quyền truy cập. Nhưng họ không thể tìm ra mẫu nhất quán về việc công cụ nào dễ gây gian lận hơn hoặc ngăn chặn nó hơn.

Vậy có thể chúng ta vẫn chưa thể thở phào nhẹ nhõm. Bạn có thể đọc nghiên cứu của Google DeepMind tại đây.

LỊCH TRÌNH AI

12-18 tháng 3: South by Southwest, Austin, Texas.

16-19 tháng 3: Nvidia GTC, San Jose, California.

6-9 tháng 4: HumanX 2026, San Francisco.

8-10 tháng 6: Fortune Brainstorm Tech, Aspen, Colorado. Đăng ký tham dự tại đây.

7-10 tháng 7: Hội nghị AI vì lợi ích cộng đồng, Geneva, Thụy Sĩ.

THỨ ĂN TRÍ TUỆ

Ôi chao, có thể chúng ta vẫn cần các lập trình viên con người sau tất cả. Nói về tác động của AI đến các ngành nghề khác nhau, đã có dấu hiệu cho thấy các công ty công nghệ hàng đầu có thể đang dựa quá nhiều vào AI để lập trình. Amazon đã triệu tập một cuộc họp khẩn cấp với các kỹ sư của mình để điều tra một loạt sự cố gần đây ảnh hưởng đến dịch vụ thương mại điện tử, trong đó một số liên quan đến việc sử dụng các công cụ lập trình AI. Một bản ghi nhớ nội bộ nói rằng đã có “xu hướng các sự cố” trong những tháng gần đây với “phạm vi ảnh hưởng lớn,” phần nào liên quan đến “việc sử dụng GenAI mới mà chưa có các thực hành tốt nhất và biện pháp phòng ngừa đầy đủ,” theo một bài trên Financial Times.

Một sự cố vào đầu tháng này khiến trang web và ứng dụng mua sắm của Amazon bị tạm dừng gần sáu giờ sau khi một triển khai phần mềm sai khiến khách hàng không thể hoàn tất giao dịch hoặc truy cập thông tin tài khoản. Amazon Web Services cũng đã gặp các sự cố liên quan đến trợ lý lập trình AI, bao gồm một gián đoạn 13 giờ đối với công cụ tính chi phí khi AI xóa và tạo lại một phần môi trường. Để đối phó, Amazon đang siết chặt kiểm soát, yêu cầu các kỹ sư cấp cao phê duyệt các thay đổi mã có sự hỗ trợ của AI trong khi công ty xem xét các thực hành để giảm thiểu các sự cố trong tương lai.

Dường như ngay cả trong lĩnh vực lập trình, nơi các tác nhân AI tự hành có thể phát triển nhất, chúng ta vẫn không thể loại bỏ con người khỏi vòng lặp.

Năm 2001, Fortune lần đầu tiên tổ chức “Những người thông minh nhất mà chúng tôi biết,” tập hợp các CEO, nhà sáng lập, nhà xây dựng và nhà đầu tư, các nhà tư duy và hành động. Kể từ đó, Fortune Brainstorm Tech đã trở thành nơi các ý tưởng táo bạo gặp gỡ nhau. Từ ngày 8 đến 10 tháng 6, chúng tôi sẽ trở lại Aspen—nơi bắt đầu tất cả—để kỷ niệm 25 năm Brainstorm. Đăng ký ngay.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim