我遇到了一个问题,我可以看到它们是我的Azure事件中心上的消息,当我尝试使用流分析将其流式传输到Blob存储时,什么都没有发生。它只是不断地进行流传输,而不会将任何消息写入指定的Blob存储。我也在使用一个非常简单的查询:SELECT * INTO [Blob] FROM [InputEventHub]
[当我尝试采样数据时,出现以下错误消息:
“没有发现” ********“的事件。开始时间:2017年3月27日,15:15:28结束时间:2017年3月27日,星期一,16:16:28最后一次到达3月27日,星期一2017,15:16:46诊断:在采样数据时,没有从'4'分区接收到任何数据”。它们在事件中心上有超过48,000条消息,所以我知道它们就是事件。我在活动日志中也没有收到任何错误。有没有人遇到这个问题?
提前感谢。
达米恩
今天遇到了同样的问题。就我而言,它实际上是格式错误的JSON输入。提示是LastTimeArrived字段在有效的开始/结束范围内。
我有两次使用单独的应用程序见解,容器,作业等遇到此问题。两次都通过编辑输入到作业的路径模式来解决。
导航到必要的刀片进行以下更改:
1) Click on your stream analytics job
2) Click "inputs" under the "job topology" section of the blade
3) Click your input (if multiple inputs, do this to 1 at a time)
4) Use the blade that pops up on the right side of the screen
我遇到的4个可能的解决方案是(粗体>中的A-D):
A。 确保您输入的路径模式是没有隐藏字符的纯文本
(有时从Azure上的容器复制它时,它不是纯文本)。*Steps:* 1) Cut the path pattern you have already in the input blade 2) Paste it into Notepad and re-copy it 3) Re-paste it into the path pattern slot of your input
B。 用/ {date} / {time}附加路径模式
Simply type this at the end of your path pattern in the blade's textbox
C。 从路径模式的开头删除容器名称和紧随其后的“ /”(请参见下图)
Removing the container name and / from path pattern
Should be self-explanatory after seeing the pic.
D。 在下拉框中将输入的日期格式更改为YYYY-MM-DD。
Should also be self-explanatory (look at the above picture if not).
希望这会有所帮助!
我想建议一些步骤来对此问题进行调查。请注意,这将涉及开始作业(而不是使用示例数据)。
[尝试将blob .csv文件用作流分析作业的输入时,我收到了相同的错误。问题出在文件太大了。