Haz atención de grafos en lugar de un transformador global idk
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
10 me gusta
Recompensa
10
7
Republicar
Compartir
Comentar
0/400
gas_fee_therapist
· 08-09 06:06
Las redes neuronales gráficas yyds explotan de daño.
Ver originalesResponder0
BlockchainGriller
· 08-09 06:06
¿Quién se preocupa por los transformers? Lo que realmente importa es lo on-chain.
Ver originalesResponder0
BearEatsAll
· 08-09 06:04
¿En serio hay gente escribiendo sobre la atención visual? Tiene potencial.
Ver originalesResponder0
ChainComedian
· 08-09 05:56
Tutu se ha enrollado de nuevo.
Ver originalesResponder0
DAOdreamer
· 08-09 05:52
¿No es atractivo el gráfico? ¿Qué cosa cambiar?
Ver originalesResponder0
LiquidationSurvivor
· 08-09 05:46
¿Es así la atención gráfica? Estoy un poco confundido.
Devuelve los algoritmos basados en gráficos.
Haz atención de grafos en lugar de un transformador global idk