@@ -64,30 +64,13 @@ func BenchmarkNewChunkMergeIterator_Seek(b *testing.B) {
64
64
scrapeInterval time.Duration
65
65
enc promchunk.Encoding
66
66
}{
67
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 1 , scrapeInterval : 30 * time .Second , seekStep : 30 * time .Second / 2 , enc : promchunk .PrometheusXorChunk },
68
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 1 , scrapeInterval : 30 * time .Second , seekStep : 30 * time .Second , enc : promchunk .PrometheusXorChunk },
69
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 1 , scrapeInterval : 30 * time .Second , seekStep : 30 * time .Second * 2 , enc : promchunk .PrometheusXorChunk },
70
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 1 , scrapeInterval : 30 * time .Second , seekStep : 30 * time .Second * 10 , enc : promchunk .PrometheusXorChunk },
71
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 1 , scrapeInterval : 30 * time .Second , seekStep : 30 * time .Second * 100 , enc : promchunk .PrometheusXorChunk },
72
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 1 , scrapeInterval : 30 * time .Second , seekStep : 30 * time .Second * 1000 , enc : promchunk .PrometheusXorChunk },
73
67
{numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 30 * time .Second , seekStep : 30 * time .Second / 2 , enc : promchunk .PrometheusXorChunk },
74
68
{numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 30 * time .Second , seekStep : 30 * time .Second , enc : promchunk .PrometheusXorChunk },
75
69
{numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 30 * time .Second , seekStep : 30 * time .Second * 2 , enc : promchunk .PrometheusXorChunk },
76
70
{numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 30 * time .Second , seekStep : 30 * time .Second * 10 , enc : promchunk .PrometheusXorChunk },
71
+ {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 30 * time .Second , seekStep : 30 * time .Second * 50 , enc : promchunk .PrometheusXorChunk },
77
72
{numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 30 * time .Second , seekStep : 30 * time .Second * 100 , enc : promchunk .PrometheusXorChunk },
78
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 30 * time .Second , seekStep : 30 * time .Second * 1000 , enc : promchunk .PrometheusXorChunk },
79
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 10 * time .Second , seekStep : 10 * time .Second / 2 , enc : promchunk .PrometheusXorChunk },
80
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 10 * time .Second , seekStep : 10 * time .Second , enc : promchunk .PrometheusXorChunk },
81
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 10 * time .Second , seekStep : 10 * time .Second * 2 , enc : promchunk .PrometheusXorChunk },
82
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 10 * time .Second , seekStep : 10 * time .Second * 10 , enc : promchunk .PrometheusXorChunk },
83
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 10 * time .Second , seekStep : 10 * time .Second * 100 , enc : promchunk .PrometheusXorChunk },
84
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 10 * time .Second , seekStep : 10 * time .Second * 1000 , enc : promchunk .PrometheusXorChunk },
85
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 60 * time .Second , seekStep : 60 * time .Second / 2 , enc : promchunk .PrometheusXorChunk },
86
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 60 * time .Second , seekStep : 60 * time .Second , enc : promchunk .PrometheusXorChunk },
87
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 60 * time .Second , seekStep : 60 * time .Second * 2 , enc : promchunk .PrometheusXorChunk },
88
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 60 * time .Second , seekStep : 60 * time .Second * 10 , enc : promchunk .PrometheusXorChunk },
89
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 60 * time .Second , seekStep : 60 * time .Second * 100 , enc : promchunk .PrometheusXorChunk },
90
- {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 60 * time .Second , seekStep : 60 * time .Second * 1000 , enc : promchunk .PrometheusXorChunk },
73
+ {numChunks : 1000 , numSamplesPerChunk : 120 , duplicationFactor : 3 , scrapeInterval : 30 * time .Second , seekStep : 30 * time .Second * 200 , enc : promchunk .PrometheusXorChunk },
91
74
}
92
75
93
76
for _ , scenario := range scenarios {
0 commit comments