Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tomasz Tunguz
Điều này thật vui, Mario. Cảm ơn vì đã mời tôi tham gia chương trình để nói về mọi thứ đang diễn ra trên thị trường!

Mario Gabriele 🦊20:22 22 thg 7
Tập mới nhất của chúng tôi với Tomasz Tunguz đã lên sóng!
Thập kỷ của Dữ liệu
@ttunguz đã dành gần hai thập kỷ để biến dữ liệu thành những hiểu biết đầu tư. Sau khi hỗ trợ Looker, Expensify và Monte Carlo tại Redpoint Ventures, ông đã ra mắt @Theoryvc vào năm 2022 với một tầm nhìn táo bạo: xây dựng một "tập đoàn đầu tư" nơi các nhà nghiên cứu, kỹ sư và nhà điều hành ngồi bên cạnh các nhà đầu tư, tạo ra các bản đồ thị trường theo thời gian thực và công cụ AI nội bộ. Quỹ ra mắt của ông đã đóng cửa với 238 triệu đô la, chỉ 19 tháng sau đó là quỹ thứ hai trị giá 450 triệu đô la. Tập trung vào dữ liệu, AI và cơ sở hạ tầng crypto, Theory hoạt động tại trung tâm của những chuyển biến công nghệ quan trọng nhất hiện nay. Chúng tôi khám phá cách dữ liệu đang định hình lại vốn đầu tư mạo hiểm, tại sao các mô hình đầu tư truyền thống đang bị gián đoạn, và điều gì cần thiết để xây dựng một công ty không chỉ dự đoán tương lai mà còn tích cực giúp tạo ra nó.
Nghe ngay:
• YouTube:
• Spotify:
• Apple:
Một lời cảm ơn lớn đến những nhà tài trợ tuyệt vời đã làm cho podcast này trở nên khả thi:
✨ Brex — Giải pháp ngân hàng cho các startup:
✨ Generalist+ — Thông tin thiết yếu cho các nhà đầu tư và công nghệ hiện đại:
Chúng tôi khám phá:
→ Cách thức hoạt động của mô hình "tập đoàn đầu tư" của Theory
→ Tại sao các sàn giao dịch crypto có thể tạo ra một con đường khả thi đến thị trường công cho các công ty phần mềm vốn hóa nhỏ
→ Sự khủng hoảng năng lượng sắp tới—tại sao các trung tâm dữ liệu có thể tiêu thụ 15% điện năng của Mỹ trong vòng năm năm tới
→ Sự gia tăng nhanh chóng của stablecoin khi các ngân hàng lớn chuyển 5-10% đô la Mỹ qua chúng
→ Tại sao Ethereum đang đối mặt với một thách thức tồn tại tương tự như AWS mất đất vào Azure trong kỷ nguyên AI
→ Tại sao Tomasz tin rằng một số ít đại lý hiện nay sẽ trở thành 100+ đồng nghiệp kỹ thuật số vào cuối năm
→ Tại sao Meta đang đặt cược hàng tỷ vào kính AR để thay đổi cách chúng ta tương tác với máy móc
→ Cách Theory Ventures sử dụng AI để tăng tốc nghiên cứu thị trường, phân tích giao dịch và quyết định đầu tư
…Và còn nhiều hơn thế nữa!
7,64K
OpenAI nhận trung bình 1 truy vấn mỗi người Mỹ mỗi ngày.
Google nhận khoảng 4 truy vấn mỗi người Mỹ mỗi ngày.
Kể từ đó, 50% các truy vấn tìm kiếm của Google có AI Overviews, điều này có nghĩa là ít nhất 60% các tìm kiếm ở Mỹ hiện nay là AI.
Nó đã mất một chút thời gian hơn tôi mong đợi để điều này xảy ra. Vào năm 2024, tôi dự đoán rằng 50% tìm kiếm của người tiêu dùng sẽ được hỗ trợ bởi AI. (
Nhưng AI đã xuất hiện trong tìm kiếm.
Nếu các mẫu tìm kiếm của Google là bất kỳ chỉ dẫn nào, có một quy luật sức mạnh trong hành vi tìm kiếm. Phân tích của SparkToro về hành vi tìm kiếm của Google cho thấy một phần ba hàng đầu của người Mỹ tìm kiếm thực hiện hơn 80% tất cả các tìm kiếm - điều này có nghĩa là việc sử dụng AI có thể không được phân phối đều - giống như tương lai.
Các trang web & doanh nghiệp đang bắt đầu cảm nhận được tác động của điều này. Bài viết của The Economist "AI đang giết chết web. Có điều gì có thể cứu nó không?" nắm bắt được tinh thần thời đại trong một tiêu đề. (
Một số lượng lớn người Mỹ hiện nay tìm kiếm bằng AI. Các tác động thứ cấp từ việc thay đổi mẫu tìm kiếm sẽ đến trong nửa sau của năm nay & nhiều người sẽ hỏi, "Điều gì đã xảy ra với lưu lượng truy cập của tôi?" (
AI là một kênh phân phối mới & những ai nắm bắt được nó sẽ giành được thị phần.
- William Gibson đã nhìn xa hơn nhiều vào tương lai!
- Điều này dựa trên một phân tích điểm giữa của biểu đồ SparkToro, là một phân tích rất đơn giản, & có một số sai số do đó.

8,54K
Khi làm việc với AI, tôi dừng lại trước khi gõ bất cứ điều gì vào ô để tự hỏi một câu hỏi: tôi mong đợi điều gì từ AI?
2x2 để cứu giúp! Tôi đang ở trong ô nào?
Trên một trục, tôi cung cấp bao nhiêu ngữ cảnh: không nhiều lắm đến khá nhiều. Trên trục khác, liệu tôi nên theo dõi AI hay để nó tự chạy.
Nếu tôi cung cấp rất ít thông tin và để hệ thống chạy: ‘nghiên cứu xu hướng Kỹ sư Triển khai Tiến bộ,’ tôi nhận được kết quả không đáng kể: những cái nhìn tổng quát mà không có chi tiết liên quan.
Chạy cùng một dự án với một loạt câu hỏi ngắn tạo ra một cuộc trò chuyện lặp đi lặp lại thành công - một Cuộc Khám Phá.
“Những công ty nào đã triển khai Kỹ sư Triển khai Tiến bộ (FDEs)? Những nền tảng điển hình của FDEs là gì? Những loại cấu trúc hợp đồng và doanh nghiệp nào phù hợp với công việc này?”
Khi tôi có mức độ không chấp nhận sai sót rất thấp, tôi cung cấp ngữ cảnh rộng rãi và làm việc lặp đi lặp lại với AI. Đối với các bài viết blog hoặc phân tích tài chính, tôi chia sẻ mọi thứ (bản nháp hiện tại, các bài viết trước đó, yêu cầu chi tiết) rồi tiến hành từng câu một.
Để một tác nhân tự do chạy đòi hỏi phải định nghĩa mọi thứ ngay từ đầu. Tôi hiếm khi thành công ở đây vì công việc chuẩn bị đòi hỏi sự rõ ràng tuyệt đối - mục tiêu chính xác, thông tin toàn diện, và danh sách nhiệm vụ chi tiết với tiêu chí xác thực - một dàn bài.
Những gợi ý này cuối cùng trông giống như các tài liệu yêu cầu sản phẩm mà tôi đã viết khi còn là một quản lý sản phẩm.
Câu trả lời cho ‘tôi mong đợi điều gì?’ sẽ trở nên dễ dàng hơn khi các hệ thống AI truy cập nhiều thông tin của tôi hơn và cải thiện khả năng chọn dữ liệu liên quan. Khi tôi trở nên tốt hơn trong việc diễn đạt những gì tôi thực sự muốn, sự hợp tác sẽ cải thiện.
Tôi đặt mục tiêu chuyển nhiều câu hỏi của mình ra khỏi ô trên cùng bên trái - cách tôi đã được đào tạo với tìm kiếm Google - vào ba phần tư còn lại.
Tôi cũng mong rằng thói quen này sẽ giúp tôi làm việc với mọi người tốt hơn.

2,88K
Cái hộp đen nhỏ ở giữa là mã máy học.
Tôi nhớ đã đọc bài báo "Nợ Kỹ Thuật Ẩn trong ML" của Google năm 2015 và nghĩ rằng rất ít ứng dụng máy học thực sự là máy học.
Phần lớn là hạ tầng, quản lý dữ liệu và độ phức tạp trong vận hành.
Với sự ra đời của AI, có vẻ như các mô hình ngôn ngữ lớn sẽ thay thế những cái hộp này. Lời hứa là sự đơn giản: chỉ cần đưa vào một LLM và xem nó xử lý mọi thứ từ dịch vụ khách hàng đến tạo mã. Không còn các pipeline phức tạp hay tích hợp dễ vỡ.
Nhưng trong việc xây dựng các ứng dụng nội bộ, chúng tôi đã quan sát thấy một động lực tương tự với AI.
Các tác nhân cần nhiều ngữ cảnh, giống như con người: CRM được cấu trúc như thế nào, chúng tôi nhập gì vào từng trường - nhưng đầu vào thì tốn kém cho mô hình AI "Đói, Đói".
Giảm chi phí có nghĩa là viết phần mềm xác định để thay thế lý luận của AI.
Ví dụ, tự động hóa quản lý email có nghĩa là viết công cụ để tạo nhiệm vụ Asana và cập nhật CRM.
Khi số lượng công cụ tăng lên trên mười hoặc mười lăm công cụ, việc gọi công cụ không còn hiệu quả. Đã đến lúc khởi động một mô hình máy học cổ điển để chọn công cụ.
Sau đó là việc theo dõi hệ thống với khả năng quan sát, đánh giá xem nó có hiệu suất hay không, và định tuyến đến mô hình đúng. Ngoài ra, có một loại phần mềm hoàn toàn để đảm bảo AI làm những gì nó được yêu cầu.
Các rào cản ngăn chặn các phản hồi không phù hợp. Giới hạn tỷ lệ ngăn chi phí không bị kiểm soát khi một hệ thống gặp sự cố.
Việc truy xuất thông tin (RAG - truy xuất tăng cường) là điều cần thiết cho bất kỳ hệ thống sản xuất nào. Trong ứng dụng email của tôi, tôi sử dụng cơ sở dữ liệu vector LanceDB để tìm tất cả email từ một người gửi cụ thể và khớp tông giọng của họ.
Có những kỹ thuật khác cho quản lý tri thức xung quanh RAG đồ thị và các cơ sở dữ liệu vector chuyên biệt.
Gần đây, bộ nhớ đã trở nên quan trọng hơn nhiều. Các giao diện dòng lệnh cho các công cụ AI lưu trữ lịch sử cuộc trò chuyện dưới dạng tệp markdown.
Khi tôi xuất bản biểu đồ, tôi muốn chú thích Theory Ventures ở góc dưới bên phải, một phông chữ cụ thể, màu sắc và kiểu dáng. Những điều đó giờ đây đều được lưu trong các tệp .gemini hoặc .claude trong một loạt các thư mục nối tiếp.
Sự đơn giản ban đầu của các mô hình ngôn ngữ lớn đã bị thay thế bởi độ phức tạp sản xuất cấp doanh nghiệp.
Điều này không hoàn toàn giống với thế hệ hệ thống máy học trước đó, nhưng nó theo một sự tương đồng rõ ràng. Những gì dường như là một "hộp ma thuật AI" đơn giản hóa ra lại là một tảng băng trôi, với phần lớn công việc kỹ thuật ẩn dưới bề mặt.


3,63K
Nếu năm 2025 là năm của các đại lý, thì năm 2026 chắc chắn sẽ thuộc về các quản lý đại lý.
Các quản lý đại lý là những người có thể quản lý các đội ngũ đại lý AI. Một người có thể quản lý bao nhiêu đại lý thành công?
Tôi chỉ có thể quản lý 4 đại lý AI cùng một lúc. Họ yêu cầu làm rõ, xin phép, thực hiện tìm kiếm trên web - tất cả đều cần sự chú ý của tôi. Đôi khi một nhiệm vụ mất 30 giây. Những lúc khác, 30 phút. Tôi mất dấu ai đang làm gì và một nửa công việc bị vứt đi vì họ hiểu sai hướng dẫn.
Đây không phải là vấn đề kỹ năng. Đây là vấn đề công cụ.
Robot vật lý cung cấp manh mối về năng suất quản lý robot. MIT đã công bố một phân tích vào năm 2020 cho thấy trung bình một robot thay thế 3,3 công việc của con người. Vào năm 2024, Amazon báo cáo rằng robot thu gom và vận chuyển đã thay thế 24 công nhân.
Nhưng có một sự khác biệt quan trọng: AI là không xác định. Các đại lý AI diễn giải hướng dẫn. Họ ứng biến. Họ đôi khi hoàn toàn bỏ qua chỉ dẫn. Một chiếc Roomba chỉ có thể mơ về tự do sáng tạo để bỏ qua phòng khách của bạn và quyết định rằng gara cần được chú ý hơn.
Lý thuyết quản lý thường hướng dẫn các đội đến một phạm vi kiểm soát là 7 người.
Nói chuyện với một số quản lý đại lý tốt hơn, tôi đã học được rằng họ sử dụng một hộp thư đại lý, một công cụ quản lý dự án để yêu cầu công việc AI và đánh giá nó. Trong kỹ thuật phần mềm, các yêu cầu kéo của Github hoặc vé Linear phục vụ mục đích này.
Các kỹ sư phần mềm AI rất năng suất quản lý 10-15 đại lý bằng cách chỉ định 10-15 nhiệm vụ một cách chi tiết, gửi chúng cho một AI, chờ đến khi hoàn thành và sau đó xem xét công việc. Một nửa công việc bị vứt đi và bắt đầu lại với một lời nhắc cải tiến.
Hộp thư đại lý chưa phổ biến - nhưng. Nó chưa được cung cấp rộng rãi.
Nhưng tôi nghi ngờ rằng nó sẽ trở thành một phần thiết yếu của bộ công cụ năng suất cho các quản lý đại lý trong tương lai vì đó là cách duy nhất để theo dõi công việc có thể đến bất cứ lúc nào.
Nếu ARR trên mỗi nhân viên là chỉ số kiêu hãnh mới cho các startup, thì số đại lý được quản lý trên mỗi người có thể trở thành chỉ số năng suất kiêu hãnh của một người lao động.
Trong 12 tháng, bạn nghĩ bạn có thể quản lý bao nhiêu đại lý? 10? 50? 100? Bạn có thể quản lý một đại lý quản lý các đại lý khác không?

7,83K
Trong suốt thập kỷ qua, khoản chi lớn nhất trong ngân sách R&D của bất kỳ startup nào là tài năng có thể dự đoán. Nhưng AI đang chen chân vào bảng P&L.
Một startup nên chi bao nhiêu cho AI như một tỷ lệ phần trăm trong tổng chi cho nghiên cứu và phát triển?
10%? 30%? 60%?
Có ba yếu tố cần xem xét. Thứ nhất, mức lương trung bình cho một kỹ sư phần mềm ở Silicon Valley. Thứ hai là tổng chi phí cho AI mà kỹ sư đó sử dụng. Cursor hiện đang có giá 200 đô la mỗi tháng cho gói Ultra Plan & các đánh giá về Devin cho thấy 500 đô la mỗi tháng. Thứ ba, số lượng đại lý mà một kỹ sư có thể quản lý.
Một lần thử đầu tiên: (hình ảnh đầu tiên)
Nhưng chi phí đăng ký có thể thấp. Trong vài ngày qua, tôi đã chơi đùa rất nhiều với các đại lý lập trình AI và tôi đã tích lũy được hóa đơn 1.000 đô la trong vòng năm ngày! 😳😅
Vì vậy, hãy cập nhật bảng và giả định thêm 1.000 đô la mỗi tháng cho mỗi kỹ sư.
Vì vậy, đối với một startup điển hình, một ước tính từ 10 đến 15% tổng chi phí R&D ngày nay có thể được sử dụng cho AI.
Các biến thể sẽ rộng hơn nhiều trong thực tế khi tất cả chúng ta học cách sử dụng AI tốt hơn và nó thâm nhập vào nhiều phần của tổ chức. Các công ty nhỏ có nền tảng AI ngay từ đầu có khả năng có tỷ lệ cao hơn đáng kể.
Nếu bạn quan tâm tham gia một cuộc khảo sát ẩn danh, tôi sẽ công bố kết quả nếu kích thước mẫu đủ lớn để có kết quả có ý nghĩa thống kê.
Khảo sát ở đây:
Đây là một mô hình đơn giản hóa một cách thô thiển, nơi chúng tôi chỉ xem xét lương, không bao gồm phúc lợi, phần cứng, hạ tầng phát triển & thử nghiệm, v.v.
Đây là một ước tính dựa trên kinh nghiệm cá nhân đã được giảm giá.


1,93K
Trong suốt thập kỷ qua, khoản chi lớn nhất trong ngân sách R&D của bất kỳ startup nào là tài năng có thể dự đoán. Nhưng AI đang chen chân vào bảng P&L.
Một startup nên chi bao nhiêu cho AI như một tỷ lệ phần trăm trong tổng chi cho nghiên cứu và phát triển?
10%? 30%? 60%?
Có ba yếu tố cần xem xét. Thứ nhất, mức lương trung bình cho một kỹ sư phần mềm ở Silicon Valley. Thứ hai là tổng chi phí cho AI mà kỹ sư đó sử dụng. Cursor hiện đang có giá 200 đô la mỗi tháng cho gói Ultra Plan & các đánh giá về Devin cho thấy 500 đô la mỗi tháng. Thứ ba, số lượng đại lý mà một kỹ sư có thể quản lý.
Một lần thử đầu tiên: (hình ảnh đầu tiên)
Nhưng chi phí đăng ký có thể thấp. Trong vài ngày qua, tôi đã chơi đùa rất nhiều với các đại lý lập trình AI và tôi đã tích lũy được hóa đơn 1.000 đô la trong vòng năm ngày! 😳😅
Vì vậy, hãy cập nhật bảng và giả định thêm 1.000 đô la mỗi tháng cho mỗi kỹ sư.
Vì vậy, đối với một startup điển hình, một ước tính từ 10 đến 15% tổng chi phí R&D ngày nay có thể được sử dụng cho AI.
Các biến thể sẽ rộng hơn nhiều trong thực tế khi tất cả chúng ta học cách sử dụng AI tốt hơn và nó thâm nhập vào nhiều phần của tổ chức. Các công ty nhỏ có nền tảng AI ngay từ đầu có khả năng có tỷ lệ cao hơn đáng kể.
Nếu bạn quan tâm tham gia một cuộc khảo sát ẩn danh, tôi sẽ công bố kết quả nếu kích thước mẫu đủ lớn để có kết quả có ý nghĩa thống kê.
Khảo sát ở đây:
Đây là một mô hình đơn giản hóa một cách thô thiển, nơi chúng tôi chỉ xem xét lương, không bao gồm phúc lợi, phần cứng, hạ tầng phát triển & thử nghiệm, v.v.
Đây là một ước tính dựa trên kinh nghiệm cá nhân đã được giảm giá.


196
Khi bạn truy vấn AI, nó thu thập thông tin liên quan để trả lời bạn.
Nhưng, mô hình cần bao nhiêu thông tin?
Các cuộc trò chuyện với những người thực hành đã tiết lộ trực giác của họ: đầu vào lớn hơn ~20 lần so với đầu ra.
Nhưng các thí nghiệm của tôi với giao diện dòng lệnh công cụ Gemini, mà xuất ra thống kê token chi tiết, đã tiết lộ rằng nó cao hơn nhiều.
Trung bình là 300 lần và lên đến 4000 lần.
Dưới đây là lý do tại sao tỷ lệ đầu vào so với đầu ra cao này quan trọng đối với bất kỳ ai xây dựng với AI:
Quản lý Chi phí hoàn toàn phụ thuộc vào Đầu vào. Với các cuộc gọi API được định giá theo token, tỷ lệ 300:1 có nghĩa là chi phí được xác định bởi ngữ cảnh, không phải câu trả lời. Động lực định giá này vẫn đúng với tất cả các mô hình lớn.
Trên trang định giá của OpenAI, token đầu ra cho GPT-4.1 đắt gấp 4 lần token đầu vào. Nhưng khi đầu vào lớn hơn 300 lần, chi phí đầu vào vẫn chiếm 98% tổng hóa đơn.
Độ trễ là Chức năng của Kích thước Ngữ cảnh. Một yếu tố quan trọng xác định thời gian người dùng chờ đợi câu trả lời là thời gian mà mô hình cần để xử lý đầu vào.
Nó Định nghĩa lại Thách thức Kỹ thuật. Quan sát này chứng minh rằng thách thức cốt lõi của việc xây dựng với LLM không chỉ là việc gợi ý. Đó là kỹ thuật ngữ cảnh.
Nhiệm vụ quan trọng là xây dựng việc truy xuất dữ liệu hiệu quả & ngữ cảnh - tạo ra các quy trình có thể tìm thấy thông tin tốt nhất và tinh chế nó thành dấu chân token nhỏ nhất có thể.
Caching Trở thành Yếu tố Quan trọng. Nếu 99% token nằm trong đầu vào, việc xây dựng một lớp caching mạnh mẽ cho các tài liệu thường xuyên được truy xuất hoặc các ngữ cảnh truy vấn phổ biến chuyển từ "cần có" thành yêu cầu kiến trúc cốt lõi để xây dựng một sản phẩm hiệu quả về chi phí & có thể mở rộng.
Đối với các nhà phát triển, điều này có nghĩa là tập trung vào tối ưu hóa đầu vào là một công cụ quan trọng để kiểm soát chi phí, giảm độ trễ và cuối cùng, xây dựng một sản phẩm thành công được hỗ trợ bởi AI.




4,17K
Hôm qua, Figma đã nộp hồ sơ S-1 được thiết kế đẹp mắt của mình.
Nó tiết lộ một mô hình kinh doanh tăng trưởng dựa trên sản phẩm (PLG) với một quỹ đạo đáng chú ý. Nền tảng công cụ thiết kế hợp tác của Figma đã làm gián đoạn thị trường thiết kế vốn đã bị Adobe thống trị trong thời gian dài.
Dưới đây là cách mà hai công ty so sánh về các chỉ số chính trong năm tài chính gần nhất của họ [xem hình ảnh đính kèm]:
Figma có kích thước khoảng 3% so với Adobe nhưng đang phát triển nhanh gấp 4 lần. Biên lợi nhuận gộp là giống nhau. Tỷ lệ Giữ chân Khách hàng Ròng (Net Dollar Retention) của Figma là 132%, thuộc top thập phân.
Dữ liệu cũng cho thấy chi tiêu cho Nghiên cứu & Phát triển của Figma gần bằng với chi tiêu cho Bán hàng & Tiếp thị.
Đây là mô hình PLG ở mức tốt nhất. Sản phẩm của Figma là động cơ tiếp thị chính của nó. Tính chất hợp tác của nó thúc đẩy việc áp dụng theo chiều dọc, dẫn đến hiệu quả bán hàng hàng đầu với tỷ lệ 1.0. Đối với mỗi đô la chi cho bán hàng & tiếp thị trong năm 2023, Figma đã tạo ra một đô la lợi nhuận gộp mới trong năm 2024. Mô hình kết hợp giữa việc áp dụng theo chiều dọc và dẫn dắt bán hàng của Adobe mang lại tỷ lệ 0.39, một con số điển hình hơn.
S-1 cũng nêu bật các rủi ro. Rủi ro lớn nhất là sự cạnh tranh từ các sản phẩm AI. Trong khi Figma đang đầu tư mạnh vào AI, công nghệ này làm giảm rào cản cho các đối thủ mới. Phòng thủ của Figma là nền tảng đang mở rộng của nó - với các sản phẩm như FigJam, Dev Mode, và giờ là Slides, Sites, & Make.
Những danh mục sản phẩm mới này đã thúc đẩy nhiều công ty phần mềm AI PLG đạt hàng chục và hàng trăm triệu đô la doanh thu hàng năm (ARR) trong thời gian kỷ lục.
Với sự tăng trưởng cao và mô hình kinh doanh độc đáo, thị trường nên định giá Figma như thế nào? Chúng ta có thể sử dụng hồi quy tuyến tính dựa trên các công ty SaaS công khai để dự đoán hệ số doanh thu trong tương lai của nó. Mô hình cho thấy một mối tương quan khiêm tốn giữa tăng trưởng doanh thu và hệ số định giá (R² = 0.23).
Figma, với mức tăng trưởng 48%, sẽ là công ty phần mềm phát triển nhanh nhất trong nhóm này, nếu không tính đến NVIDIA. Một lập luận thuyết phục có thể được đưa ra rằng Figma nên được định giá cao hơn mức dự đoán. Sự kết hợp giữa tăng trưởng cực nhanh, hiệu quả bán hàng hàng đầu, và một cơ sở người dùng đam mê, tự phát triển là rất hiếm.
Áp dụng hệ số 19.9x mà mô hình dự đoán để ước tính doanh thu trong tương lai sẽ cho ra một định giá IPO ước tính khoảng 21 tỷ đô la - một mức cao hơn so với 20 tỷ đô la mà Adobe đã đề nghị cho công ty vào năm 2022.
S-1 kể câu chuyện về một công ty định nghĩa danh mục đã xây dựng một sản phẩm thiết kế hợp tác, phát triển một động lực PLG tuyệt vời, và đang tích cực tiến vào AI.
Phí chấm dứt 1.0 tỷ đô la từ Adobe đã được nhận vào tháng 12 năm 2023 và được ghi nhận là "Thu nhập khác, ròng" trong Năm Tài chính 2024 (kết thúc vào ngày 31 tháng 1 năm 2024). Khoản chi phí bồi thường dựa trên cổ phiếu lớn gần 900 triệu đô la liên quan đến một đề nghị tender cho nhân viên vào tháng 5 năm 2024. Cả hai đều được loại bỏ trong dữ liệu không GAAP được trích dẫn ở trên.
Bằng cách lấy tỷ lệ tăng trưởng 48.3% trong mười hai tháng qua của Figma và giảm nó 15% (để tính đến sự chậm lại tự nhiên trong tăng trưởng), mô hình tạo ra một ước tính tăng trưởng trong tương lai là 41.1%. Điều này sẽ ngụ ý doanh thu trong tương lai khoảng 1.1 tỷ đô la.



6,32K
Hàng đầu
Thứ hạng
Yêu thích
Onchain thịnh hành
Thịnh hành trên X
Ví funding hàng đầu gần đây
Được chú ý nhất