1mindspore.train.FlopsUtilizationCollector 2========================================= 3 4.. py:class:: mindspore.train.FlopsUtilizationCollector(data_size, computility=1, full_flops=True) 5 6 FlopsUtilizationCollector接口统计模型利用率信息MFU,硬件利用率信息HFU。 7 当前接口只统计MatMul、BatchMatMul、FlashAttentionScore、Conv2D算子的正反向flops信息。 8 只支持静态图静态shape模式。 9 10 参数: 11 - **data_size** (int) - 表示每隔多少个step打印一次信息。 12 13 - **computility** (int) - 表示每张计算卡的峰值算力。默认值: ``1`` 。 14 15 - **full_flops** (bool) - 表示是否统计完整的模型信息,如果设置为True,会统计完整的模型信息,如果设置为False,将会统计对应每张卡的分片模型信息。默认值: ``True`` 。 16 17 异常: 18 - **TypeError** - `data_size` 不是正整数。 19 - **TypeError** - `full_flops` 不是布尔类型。 20 - **AssertionError** - 不是静态图或者不是静态shape。 21 22 .. py:method:: epoch_begin(run_context) 23 24 在epoch开始时记录时间。 25 26 参数: 27 - **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。 28 29 .. py:method:: epoch_end(run_context) 30 31 在epoch结束时打印模型利用率信息MFU,硬件利用率信息HFU。 32 33 参数: 34 - **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。 35