Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Elliot Hershberg
Wieść się rozeszła!
@packyM i ja byliśmy podekscytowani, mogąc wspierać @Atelfo, @okaymaged i ekipę @Convokebio, gdy byłem w @notboringco.
Piszący inwestują w piszących 🤝🧬
Podekscytowany tą wizją.

Convoke20 sie, 01:04
Zebraliśmy 8,6 mln dolarów na budowę wiodących narzędzi AI dla przemysłu biopharma!\n\nNasze finansowanie seedowe zostało zrealizowane przez @kleinerperkins i @_DimensionCap, z udziałem @ACME, @CommaCapital, @Liquid2V, @notboringco, @AudaciousHQ, @Lux_Capital oraz liderów w dziedzinie AI i biotechnologii.
10,6K
Uważam, że jednym z najbardziej obiecujących aspektów AI w odkrywaniu leków jest korzyść z wielomodalności i możliwość budowania modeli dla wielu odrębnych zadań.
W swoim eseju z 2012 roku, w którym przedstawia Prawo Erooma (eksponencjalnie malejąca efektywność badań i rozwoju w odkrywaniu leków), jednym z "diagnoz" Jacka Scannella dla tego problemu był bias 'badania podstawowe – siła brutalna'.
Mamy tendencję do przeszacowywania wpływu skalowania technologii odkrywania na wczesnym etapie. Często te testy mają niską "predykcyjną ważność" sukcesu klinicznego.
Jednym ze sposobów, w jaki modele AI pomagają rozwiązać ten problem, jest to, że mogą włączyć bardziej translacyjnie istotne prognozy już na najwcześniejszych etapach odkrywania.
Uważam, że to jest geniusz wizji Brandona i Alexa w Axiom. Poprzez zmniejszenie kosztów, czasu i tarcia związanych z testowaniem toksyczności, można je wprowadzić znacznie wcześniej w procesie odkrywania – tak szybko, jak tylko masz cząsteczkę.
To jest jedno z najbardziej radykalnych odejść uczenia maszynowego molekularnego w porównaniu do wczesnych wysiłków w chemii obliczeniowej.
Duża liczba różnych kryteriów odkrywania może być uwzględniona w jednym przejściu do przodu.

947
Co jest potrzebne, aby komputer nauczył się zasad parowania zasad RNA?
Ludzie trenują duże modele językowe do przewidywania struktury RNA. Niektóre z tych modeli mają setki milionów parametrów.
Jednym z ekscytujących wczesnych wyników było to, że te modele uczą się zasad parowania zasad Watsona-Cricka-Franklina bezpośrednio z danych.
Grupa badawcza z Harvardu postanowiła sprawdzić, jaki jest najmniejszy możliwy model, który mógłby osiągnąć ten wynik.
Wytrenowali mały model probabilistyczny zaledwie z 21 parametrami, używając spadku gradientu.
Przy tak niewielkiej liczbie jak 50 sekwencji RNA—bez odpowiadających struktur—zasady parowania pojawiały się po zaledwie kilku epokach treningowych.
Zatem odpowiedzią na ich pierwotne pytanie było to, że potrzeba "dużo mniej, niż mogłoby się wydawać", aby nauczyć się tego typu modelu.
Nie sądzę, aby to oznaczało, że duże wysiłki w zakresie treningu są koniecznie głupie lub błędne. Ale ten wynik sugeruje, że istnieje wiele efektywności i wydajności, które można jeszcze uzyskać dzięki innowacjom architektonicznym.
Jest wiele ukrytej struktury w języku biologii.

3,23K
To niesamowite, że wiadomość o serii A Tahoe jest już na zewnątrz.
@nalidoust i @iamjohnnyyu to niesamowity duet założycieli technicznych CEO/CSO. @genophoria i @kevansf to również niesamowici naukowcy. To wymarzony zespół.
Skala ambicji, aby dążyć do 1 *miliarda* komórek z różnych grup pacjentów, graniczy z absurdem. Ale budują infrastrukturę, aby to stało się rzeczywistością.
A wizja komercyjna jest równie intensywna.
Nie mogę się doczekać, aż więcej historii Tahoe zostanie wkrótce podzielone.
To zaszczyt współpracować z tym zespołem w Amplify.

Nima Alidoust11 sie, 23:25
Zebraliśmy 30 milionów dolarów, aby zbudować podstawowy zbiór danych dla Wirtualnych Modeli Komórkowych: 1 miliard punktów danych pojedynczych komórek, mapujących 1 milion interakcji lek-pacjent, które zostaną udostępnione jednemu partnerowi.
Nasz cel: Przesunąć granice - Od modeli do precyzyjnych leków, które pomagają pacjentom.
@tahoe_ai 🧵

6,17K
W biologii prawa skalowania działają...
...dopóki nie przestają.
W przypadku przewidywania sprawności, wydajność modelu językowego białek wzrasta wraz z rozmiarem modelu, aż osiągnie plateau, a następnie spada.
Gdy strata treningowa (NLL) maleje, modele zaczynają przewidywać wyższe prawdopodobieństwa sekwencji i mniej korelują z podstawową sprawnością.
Przykład 10 001, dlaczego AI w biologii wymaga starannego rozważenia podstawowych rozkładów, celów treningowych i dziesiątek innych szczegółów.
Skrzyżowanie jest bogate, ale wymaga starannej pracy w obu dziedzinach.

13K
Zmęczony: komputery oparte na krzemie
Podłączony (dosłownie): komputery grzybowe
Z "Zrównoważone memristory z mycelium shiitake do bioelektroniki wysokiej częstotliwości"
Pomysł polega na wykorzystaniu adaptacyjnego sygnalizowania elektrycznego w shiitake (o istnieniu którego nie miałem pojęcia) jako zamiennika dla organoidów neuronowych w zastosowaniach neuromorficznych.
"Nasze wyniki pokazują, że komputery grzybowe mogą zapewnić skalowalne, przyjazne dla środowiska platformy do zadań neuromorficznych, łącząc bioelektronikę
i nietypowe obliczenia."
100% jedno z bardziej "nietypowych" pomysłów badawczych, na które ostatnio natrafiłem...

903
Użytkownik Elliot Hershberg udostępnił ponownie
Rozmawialiśmy z firmą @ElliotHershberg (Partner @AmplifyPartners) o wyzwaniach związanych z technologią w naukach przyrodniczych.
"Panuje powszechne przekonanie, że można osiągnąć ogromny postęp dzięki nowym danym i nowym technologiom w naukach przyrodniczych".
"Okazuje się, że naprawdę trudno jest wynaleźć lekarstwo na raka za jednym razem".
"Są przełomowe odkrycia, takie jak Nagroda Nobla dla Alphafold. Sztuczna inteligencja ma realny wpływ na trudne problemy biologiczne".
"Koszty sekwencjonowania DNA spadają szybciej niż prawo Moore'a".
"Ludzie zaczynają skalować modele, a to szybko robi wrażenie".
7,01K
Co jeśli szczepionki przeciw grypie naprawdę działały?
I mam na myśli *naprawdę* działały – do tego stopnia, że endemiczna relacja ludzkości z wirusem grypy stałaby się historią, a nie ciągłym globalnym wyzwaniem zdrowotnym.
Co jeśli moglibyśmy złagodzić *wszystkie* szybko mutujące patogeny?
To dlatego Jake Glanville założył Centivax. Jego życiową misją jest "dokończyć to, co rozpoczął Edward Jenner", opracowując uniwersalne szczepionki, które przyspieszają przejście ludzkości do przyszłości bez patogenów.
Jake jest dokładnie tym typem technicznego założyciela, z którym chcemy współpracować w Amplify. Był wczesnym pionierem projektowania przeciwciał obliczeniowych w Pfizerze, zanim stał się jednym z pierwszych studentów studiów magisterskich w dziedzinie biologii obliczeniowej i systemowej na Stanfordzie u Marka Davisa.
Syntetyzował całe swoje życie pracy w wyraźny – i nieco kontrowersyjny – pomysł na opracowanie uniwersalnych szczepionek.
A zespół, który zebrał, jest równie niezwykły. Na przykład, CMO Centivax, Jerry Sadoff, jest jednym z najbardziej płodnych twórców szczepionek, którzy żyją.
To prawdziwy przywilej dla nas, aby uczestniczyć w syndykacie Serii A dla Centivax. W ciągu ostatniej dekady Jake i zespół zebrali kompleksowy pakiet danych przedklinicznych dla swojego wiodącego programu szczepionek przeciw grypie.
Jedynym pozostałym eksperymentem jest sprawdzenie, czy to przekłada się na ludzi, co jest tym, co finansuje ta runda.
Jeśli ta technologia odniesie sukces, wpływ będzie ogromny. A historia wytrwałości tego zespołu będzie wymagała własnej książki w kanonie biotechnologii.

6,72K
Najlepsze
Ranking
Ulubione
Trendy onchain
Trendy na X
Niedawne największe finansowanie
Najbardziej godne uwagi