Я использую API таблиц Apache Flink в версии 1.1-SNAPSHOT для оценки SQL-запросов в потоках.
Вот мой код:
private static final int MAX_RACK_ID = 10;
private static final long PAUSE = 100;
private static final double TEMP_STD = 20;
private static final double TEMP_MEAN = 80;
public static void main(String[] args)
{
StreamExecutionEnvironment env=StreamExecutionEnvironment.getExecutionEnvironment();
env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime);
StreamTableEnvironment tableEnv=TableEnvironment.getTableEnvironment(env);
DataStream<MonitoringEvent> dstream = env.addSource(new MonitoringEventSource(MAX_RACK_ID, PAUSE, TEMP_STD, TEMP_MEAN));
tableEnv.registerDataStream("TemperatureData", dstream,"rackid,temperature,timestamp");
Table tab1 = tableEnv.sql("select STREAM rackid,temperature,timestamp from TemperatureData where temperature>=100");
DataStream<TemperatureEvent>tempstream=tableEnv.toDataStream(tab1, TemperatureEvent.class);
tempstream.print();
}
Когда я запускаю эту программу, она выдает следующее исключение:
Exception in thread "main" org.apache.flink.api.table.TableException: Alias on field reference expression expected.
at org.apache.flink.api.table.TableEnvironment$$anonfun$4.apply(TableEnvironment.scala:299)
at org.apache.flink.api.table.TableEnvironment$$anonfun$4.apply(TableEnvironment.scala:292)
at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:244)
at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:244)
at scala.collection.IndexedSeqOptimized$class.foreach(IndexedSeqOptimized.scala:33)
at scala.collection.mutable.ArrayOps$ofRef.foreach(ArrayOps.scala:108)
at scala.collection.TraversableLike$class.map(TraversableLike.scala:244)
at scala.collection.mutable.ArrayOps$ofRef.map(ArrayOps.scala:108)
at org.apache.flink.api.table.TableEnvironment.getFieldInfo(TableEnvironment.scala:292)
at org.apache.flink.api.table.StreamTableEnvironment.registerDataStreamInternal(StreamTableEnvironment.scala:212)
at org.apache.flink.api.java.table.StreamTableEnvironment.registerDataStream(StreamTableEnvironment.scala:130)
at com.yash.flink.Program.main(Program.java:31)
У меня есть несколько вопросов:
- Каким образом можно писать SQL-запросы в потоках с помощью API таблиц Apache Flink?
- Как я могу реализовать этот запрос во Flink?
- Это ошибка в API таблиц Flink ??