Использование native-image для сокращения времени запуска интерпретаторов Truffle быть обычным.
Насколько я понимаю, компиляция AOT с использованием native-image приведет к созданию методов, скомпилированных в собственный код, которые выполняются в специальной SubstrateVM.
Кроме того, фреймворк Truffle полагается на динамически собираемую информацию профилирования, чтобы определить, какие деревья узлов следует частично оценивать. И этот PE работает, беря байт-код JVM рассматриваемых узлов и анализируя его с помощью компилятора Graal JIT.
И вот в чем я запутался. Если мы передадим интерпретатор Truffle через native-image, код для методов каждого узла будет собственным кодом. Как же тогда может продолжаться PE? На самом деле, доступен ли Graal в SubstrateVM?