llvm.org GIT mirror llvm / 03b0876
whitespace git-svn-id: https://llvm.org/svn/llvm-project/llvm/trunk@140761 91177308-0d34-0410-b5e6-96231b3b80d8 Andrew Trick 8 years ago
1 changed file(s) with 245 addition(s) and 245 deletion(s). Raw diff Collapse all Expand all
3636
3737 define void @test(%0* nocapture %a0, %11* nocapture %a1, i16* nocapture %a2, i8** nocapture %a3, i32 %a4) nounwind {
3838 bb:
39 %t = alloca [64 x float], align 4
39 %t = alloca [64 x float], align 4
4040 %t5 = getelementptr inbounds %0* %a0, i32 0, i32 65
41 %t6 = load i8** %t5, align 4
41 %t6 = load i8** %t5, align 4
4242 %t7 = getelementptr inbounds %11* %a1, i32 0, i32 20
43 %t8 = load i8** %t7, align 4
43 %t8 = load i8** %t7, align 4
4444 br label %bb9
4545
46 bb9:
46 bb9:
4747 %t10 = phi i32 [ 0, %bb ], [ %t157, %bb156 ]
48 %t11 = add i32 %t10, 8
48 %t11 = add i32 %t10, 8
4949 %t12 = getelementptr [64 x float]* %t, i32 0, i32 %t11
50 %t13 = add i32 %t10, 16
50 %t13 = add i32 %t10, 16
5151 %t14 = getelementptr [64 x float]* %t, i32 0, i32 %t13
52 %t15 = add i32 %t10, 24
52 %t15 = add i32 %t10, 24
5353 %t16 = getelementptr [64 x float]* %t, i32 0, i32 %t15
54 %t17 = add i32 %t10, 32
54 %t17 = add i32 %t10, 32
5555 %t18 = getelementptr [64 x float]* %t, i32 0, i32 %t17
56 %t19 = add i32 %t10, 40
56 %t19 = add i32 %t10, 40
5757 %t20 = getelementptr [64 x float]* %t, i32 0, i32 %t19
58 %t21 = add i32 %t10, 48
58 %t21 = add i32 %t10, 48
5959 %t22 = getelementptr [64 x float]* %t, i32 0, i32 %t21
60 %t23 = add i32 %t10, 56
60 %t23 = add i32 %t10, 56
6161 %t24 = getelementptr [64 x float]* %t, i32 0, i32 %t23
6262 %t25 = getelementptr [64 x float]* %t, i32 0, i32 %t10
63 %t26 = shl i32 %t10, 5
64 %t27 = or i32 %t26, 8
65 %t28 = getelementptr i8* %t8, i32 %t27
66 %t29 = bitcast i8* %t28 to float*
67 %t30 = or i32 %t26, 16
68 %t31 = getelementptr i8* %t8, i32 %t30
69 %t32 = bitcast i8* %t31 to float*
70 %t33 = or i32 %t26, 24
71 %t34 = getelementptr i8* %t8, i32 %t33
72 %t35 = bitcast i8* %t34 to float*
73 %t36 = or i32 %t26, 4
74 %t37 = getelementptr i8* %t8, i32 %t36
75 %t38 = bitcast i8* %t37 to float*
76 %t39 = or i32 %t26, 12
77 %t40 = getelementptr i8* %t8, i32 %t39
78 %t41 = bitcast i8* %t40 to float*
79 %t42 = or i32 %t26, 20
80 %t43 = getelementptr i8* %t8, i32 %t42
81 %t44 = bitcast i8* %t43 to float*
82 %t45 = or i32 %t26, 28
83 %t46 = getelementptr i8* %t8, i32 %t45
84 %t47 = bitcast i8* %t46 to float*
85 %t48 = getelementptr i8* %t8, i32 %t26
86 %t49 = bitcast i8* %t48 to float*
87 %t50 = shl i32 %t10, 3
88 %t51 = or i32 %t50, 1
89 %t52 = getelementptr i16* %a2, i32 %t51
90 %t53 = or i32 %t50, 2
91 %t54 = getelementptr i16* %a2, i32 %t53
92 %t55 = or i32 %t50, 3
93 %t56 = getelementptr i16* %a2, i32 %t55
94 %t57 = or i32 %t50, 4
95 %t58 = getelementptr i16* %a2, i32 %t57
96 %t59 = or i32 %t50, 5
97 %t60 = getelementptr i16* %a2, i32 %t59
98 %t61 = or i32 %t50, 6
99 %t62 = getelementptr i16* %a2, i32 %t61
100 %t63 = or i32 %t50, 7
101 %t64 = getelementptr i16* %a2, i32 %t63
102 %t65 = getelementptr i16* %a2, i32 %t50
103 %t66 = load i16* %t52, align 2
104 %t67 = icmp eq i16 %t66, 0
105 %t68 = load i16* %t54, align 2
106 %t69 = icmp eq i16 %t68, 0
107 %t70 = and i1 %t67, %t69
63 %t26 = shl i32 %t10, 5
64 %t27 = or i32 %t26, 8
65 %t28 = getelementptr i8* %t8, i32 %t27
66 %t29 = bitcast i8* %t28 to float*
67 %t30 = or i32 %t26, 16
68 %t31 = getelementptr i8* %t8, i32 %t30
69 %t32 = bitcast i8* %t31 to float*
70 %t33 = or i32 %t26, 24
71 %t34 = getelementptr i8* %t8, i32 %t33
72 %t35 = bitcast i8* %t34 to float*
73 %t36 = or i32 %t26, 4
74 %t37 = getelementptr i8* %t8, i32 %t36
75 %t38 = bitcast i8* %t37 to float*
76 %t39 = or i32 %t26, 12
77 %t40 = getelementptr i8* %t8, i32 %t39
78 %t41 = bitcast i8* %t40 to float*
79 %t42 = or i32 %t26, 20
80 %t43 = getelementptr i8* %t8, i32 %t42
81 %t44 = bitcast i8* %t43 to float*
82 %t45 = or i32 %t26, 28
83 %t46 = getelementptr i8* %t8, i32 %t45
84 %t47 = bitcast i8* %t46 to float*
85 %t48 = getelementptr i8* %t8, i32 %t26
86 %t49 = bitcast i8* %t48 to float*
87 %t50 = shl i32 %t10, 3
88 %t51 = or i32 %t50, 1
89 %t52 = getelementptr i16* %a2, i32 %t51
90 %t53 = or i32 %t50, 2
91 %t54 = getelementptr i16* %a2, i32 %t53
92 %t55 = or i32 %t50, 3
93 %t56 = getelementptr i16* %a2, i32 %t55
94 %t57 = or i32 %t50, 4
95 %t58 = getelementptr i16* %a2, i32 %t57
96 %t59 = or i32 %t50, 5
97 %t60 = getelementptr i16* %a2, i32 %t59
98 %t61 = or i32 %t50, 6
99 %t62 = getelementptr i16* %a2, i32 %t61
100 %t63 = or i32 %t50, 7
101 %t64 = getelementptr i16* %a2, i32 %t63
102 %t65 = getelementptr i16* %a2, i32 %t50
103 %t66 = load i16* %t52, align 2
104 %t67 = icmp eq i16 %t66, 0
105 %t68 = load i16* %t54, align 2
106 %t69 = icmp eq i16 %t68, 0
107 %t70 = and i1 %t67, %t69
108108 br i1 %t70, label %bb71, label %bb91
109109
110 bb71:
111 %t72 = load i16* %t56, align 2
112 %t73 = icmp eq i16 %t72, 0
110 bb71:
111 %t72 = load i16* %t56, align 2
112 %t73 = icmp eq i16 %t72, 0
113113 br i1 %t73, label %bb74, label %bb91
114114
115 bb74:
116 %t75 = load i16* %t58, align 2
117 %t76 = icmp eq i16 %t75, 0
115 bb74:
116 %t75 = load i16* %t58, align 2
117 %t76 = icmp eq i16 %t75, 0
118118 br i1 %t76, label %bb77, label %bb91
119119
120 bb77:
121 %t78 = load i16* %t60, align 2
122 %t79 = icmp eq i16 %t78, 0
120 bb77:
121 %t78 = load i16* %t60, align 2
122 %t79 = icmp eq i16 %t78, 0
123123 br i1 %t79, label %bb80, label %bb91
124124
125 bb80:
126 %t81 = load i16* %t62, align 2
127 %t82 = icmp eq i16 %t81, 0
125 bb80:
126 %t81 = load i16* %t62, align 2
127 %t82 = icmp eq i16 %t81, 0
128128 br i1 %t82, label %bb83, label %bb91
129129
130 bb83:
131 %t84 = load i16* %t64, align 2
132 %t85 = icmp eq i16 %t84, 0
130 bb83:
131 %t84 = load i16* %t64, align 2
132 %t85 = icmp eq i16 %t84, 0
133133 br i1 %t85, label %bb86, label %bb91
134134
135 bb86:
136 %t87 = load i16* %t65, align 2
137 %t88 = sitofp i16 %t87 to float
138 %t89 = load float* %t49, align 4
139 %t90 = fmul float %t88, %t89
135 bb86:
136 %t87 = load i16* %t65, align 2
137 %t88 = sitofp i16 %t87 to float
138 %t89 = load float* %t49, align 4
139 %t90 = fmul float %t88, %t89
140140 store float %t90, float* %t25, align 4
141141 store float %t90, float* %t12, align 4
142142 store float %t90, float* %t14, align 4
147147 store float %t90, float* %t24, align 4
148148 br label %bb156
149149
150 bb91:
151 %t92 = load i16* %t65, align 2
152 %t93 = sitofp i16 %t92 to float
153 %t94 = load float* %t49, align 4
154 %t95 = fmul float %t93, %t94
155 %t96 = sitofp i16 %t68 to float
156 %t97 = load float* %t29, align 4
157 %t98 = fmul float %t96, %t97
158 %t99 = load i16* %t58, align 2
159 %t100 = sitofp i16 %t99 to float
160 %t101 = load float* %t32, align 4
161 %t102 = fmul float %t100, %t101
162 %t103 = load i16* %t62, align 2
163 %t104 = sitofp i16 %t103 to float
164 %t105 = load float* %t35, align 4
165 %t106 = fmul float %t104, %t105
166 %t107 = fadd float %t95, %t102
167 %t108 = fsub float %t95, %t102
168 %t109 = fadd float %t98, %t106
169 %t110 = fsub float %t98, %t106
150 bb91:
151 %t92 = load i16* %t65, align 2
152 %t93 = sitofp i16 %t92 to float
153 %t94 = load float* %t49, align 4
154 %t95 = fmul float %t93, %t94
155 %t96 = sitofp i16 %t68 to float
156 %t97 = load float* %t29, align 4
157 %t98 = fmul float %t96, %t97
158 %t99 = load i16* %t58, align 2
159 %t100 = sitofp i16 %t99 to float
160 %t101 = load float* %t32, align 4
161 %t102 = fmul float %t100, %t101
162 %t103 = load i16* %t62, align 2
163 %t104 = sitofp i16 %t103 to float
164 %t105 = load float* %t35, align 4
165 %t106 = fmul float %t104, %t105
166 %t107 = fadd float %t95, %t102
167 %t108 = fsub float %t95, %t102
168 %t109 = fadd float %t98, %t106
169 %t110 = fsub float %t98, %t106
170170 %t111 = fmul float %t110, 0x3FF6A09E60000000
171 %t112 = fsub float %t111, %t109
172 %t113 = fadd float %t107, %t109
173 %t114 = fsub float %t107, %t109
174 %t115 = fadd float %t108, %t112
175 %t116 = fsub float %t108, %t112
176 %t117 = sitofp i16 %t66 to float
177 %t118 = load float* %t38, align 4
178 %t119 = fmul float %t117, %t118
179 %t120 = load i16* %t56, align 2
180 %t121 = sitofp i16 %t120 to float
181 %t122 = load float* %t41, align 4
182 %t123 = fmul float %t121, %t122
183 %t124 = load i16* %t60, align 2
184 %t125 = sitofp i16 %t124 to float
185 %t126 = load float* %t44, align 4
186 %t127 = fmul float %t125, %t126
187 %t128 = load i16* %t64, align 2
188 %t129 = sitofp i16 %t128 to float
189 %t130 = load float* %t47, align 4
190 %t131 = fmul float %t129, %t130
191 %t132 = fadd float %t127, %t123
192 %t133 = fsub float %t127, %t123
193 %t134 = fadd float %t119, %t131
194 %t135 = fsub float %t119, %t131
195 %t136 = fadd float %t134, %t132
196 %t137 = fsub float %t134, %t132
171 %t112 = fsub float %t111, %t109
172 %t113 = fadd float %t107, %t109
173 %t114 = fsub float %t107, %t109
174 %t115 = fadd float %t108, %t112
175 %t116 = fsub float %t108, %t112
176 %t117 = sitofp i16 %t66 to float
177 %t118 = load float* %t38, align 4
178 %t119 = fmul float %t117, %t118
179 %t120 = load i16* %t56, align 2
180 %t121 = sitofp i16 %t120 to float
181 %t122 = load float* %t41, align 4
182 %t123 = fmul float %t121, %t122
183 %t124 = load i16* %t60, align 2
184 %t125 = sitofp i16 %t124 to float
185 %t126 = load float* %t44, align 4
186 %t127 = fmul float %t125, %t126
187 %t128 = load i16* %t64, align 2
188 %t129 = sitofp i16 %t128 to float
189 %t130 = load float* %t47, align 4
190 %t131 = fmul float %t129, %t130
191 %t132 = fadd float %t127, %t123
192 %t133 = fsub float %t127, %t123
193 %t134 = fadd float %t119, %t131
194 %t135 = fsub float %t119, %t131
195 %t136 = fadd float %t134, %t132
196 %t137 = fsub float %t134, %t132
197197 %t138 = fmul float %t137, 0x3FF6A09E60000000
198 %t139 = fadd float %t133, %t135
198 %t139 = fadd float %t133, %t135
199199 %t140 = fmul float %t139, 0x3FFD906BC0000000
200200 %t141 = fmul float %t135, 0x3FF1517A80000000
201 %t142 = fsub float %t141, %t140
201 %t142 = fsub float %t141, %t140
202202 %t143 = fmul float %t133, 0xC004E7AEA0000000
203 %t144 = fadd float %t143, %t140
204 %t145 = fsub float %t144, %t136
205 %t146 = fsub float %t138, %t145
206 %t147 = fadd float %t142, %t146
207 %t148 = fadd float %t113, %t136
203 %t144 = fadd float %t143, %t140
204 %t145 = fsub float %t144, %t136
205 %t146 = fsub float %t138, %t145
206 %t147 = fadd float %t142, %t146
207 %t148 = fadd float %t113, %t136
208208 store float %t148, float* %t25, align 4
209 %t149 = fsub float %t113, %t136
209 %t149 = fsub float %t113, %t136
210210 store float %t149, float* %t24, align 4
211 %t150 = fadd float %t115, %t145
211 %t150 = fadd float %t115, %t145
212212 store float %t150, float* %t12, align 4
213 %t151 = fsub float %t115, %t145
213 %t151 = fsub float %t115, %t145
214214 store float %t151, float* %t22, align 4
215 %t152 = fadd float %t116, %t146
215 %t152 = fadd float %t116, %t146
216216 store float %t152, float* %t14, align 4
217 %t153 = fsub float %t116, %t146
217 %t153 = fsub float %t116, %t146
218218 store float %t153, float* %t20, align 4
219 %t154 = fadd float %t114, %t147
219 %t154 = fadd float %t114, %t147
220220 store float %t154, float* %t18, align 4
221 %t155 = fsub float %t114, %t147
221 %t155 = fsub float %t114, %t147
222222 store float %t155, float* %t16, align 4
223223 br label %bb156
224224
225 bb156:
226 %t157 = add i32 %t10, 1
227 %t158 = icmp eq i32 %t157, 8
225 bb156:
226 %t157 = add i32 %t10, 1
227 %t158 = icmp eq i32 %t157, 8
228228 br i1 %t158, label %bb159, label %bb9
229229
230 bb159:
231 %t160 = add i32 %a4, 7
232 %t161 = add i32 %a4, 1
233 %t162 = add i32 %a4, 6
234 %t163 = add i32 %a4, 2
235 %t164 = add i32 %a4, 5
236 %t165 = add i32 %a4, 4
237 %t166 = add i32 %a4, 3
230 bb159:
231 %t160 = add i32 %a4, 7
232 %t161 = add i32 %a4, 1
233 %t162 = add i32 %a4, 6
234 %t163 = add i32 %a4, 2
235 %t164 = add i32 %a4, 5
236 %t165 = add i32 %a4, 4
237 %t166 = add i32 %a4, 3
238238 br label %bb167
239239
240 bb167:
240 bb167:
241241 %t168 = phi i32 [ 0, %bb159 ], [ %t293, %bb167 ]
242242 %t169 = getelementptr i8** %a3, i32 %t168
243 %t170 = shl i32 %t168, 3
244 %t171 = or i32 %t170, 4
243 %t170 = shl i32 %t168, 3
244 %t171 = or i32 %t170, 4
245245 %t172 = getelementptr [64 x float]* %t, i32 0, i32 %t171
246 %t173 = or i32 %t170, 2
246 %t173 = or i32 %t170, 2
247247 %t174 = getelementptr [64 x float]* %t, i32 0, i32 %t173
248 %t175 = or i32 %t170, 6
248 %t175 = or i32 %t170, 6
249249 %t176 = getelementptr [64 x float]* %t, i32 0, i32 %t175
250 %t177 = or i32 %t170, 5
250 %t177 = or i32 %t170, 5
251251 %t178 = getelementptr [64 x float]* %t, i32 0, i32 %t177
252 %t179 = or i32 %t170, 3
252 %t179 = or i32 %t170, 3
253253 %t180 = getelementptr [64 x float]* %t, i32 0, i32 %t179
254 %t181 = or i32 %t170, 1
254 %t181 = or i32 %t170, 1
255255 %t182 = getelementptr [64 x float]* %t, i32 0, i32 %t181
256 %t183 = or i32 %t170, 7
256 %t183 = or i32 %t170, 7
257257 %t184 = getelementptr [64 x float]* %t, i32 0, i32 %t183
258258 %t185 = getelementptr [64 x float]* %t, i32 0, i32 %t170
259 %t186 = load i8** %t169, align 4
259 %t186 = load i8** %t169, align 4
260260 %t187 = getelementptr inbounds i8* %t186, i32 %a4
261 %t188 = load float* %t185, align 4
262 %t189 = load float* %t172, align 4
263 %t190 = fadd float %t188, %t189
264 %t191 = fsub float %t188, %t189
265 %t192 = load float* %t174, align 4
266 %t193 = load float* %t176, align 4
267 %t194 = fadd float %t192, %t193
268 %t195 = fsub float %t192, %t193
261 %t188 = load float* %t185, align 4
262 %t189 = load float* %t172, align 4
263 %t190 = fadd float %t188, %t189
264 %t191 = fsub float %t188, %t189
265 %t192 = load float* %t174, align 4
266 %t193 = load float* %t176, align 4
267 %t194 = fadd float %t192, %t193
268 %t195 = fsub float %t192, %t193
269269 %t196 = fmul float %t195, 0x3FF6A09E60000000
270 %t197 = fsub float %t196, %t194
271 %t198 = fadd float %t190, %t194
272 %t199 = fsub float %t190, %t194
273 %t200 = fadd float %t191, %t197
274 %t201 = fsub float %t191, %t197
275 %t202 = load float* %t178, align 4
276 %t203 = load float* %t180, align 4
277 %t204 = fadd float %t202, %t203
278 %t205 = fsub float %t202, %t203
279 %t206 = load float* %t182, align 4
280 %t207 = load float* %t184, align 4
281 %t208 = fadd float %t206, %t207
282 %t209 = fsub float %t206, %t207
283 %t210 = fadd float %t208, %t204
284 %t211 = fsub float %t208, %t204
270 %t197 = fsub float %t196, %t194
271 %t198 = fadd float %t190, %t194
272 %t199 = fsub float %t190, %t194
273 %t200 = fadd float %t191, %t197
274 %t201 = fsub float %t191, %t197
275 %t202 = load float* %t178, align 4
276 %t203 = load float* %t180, align 4
277 %t204 = fadd float %t202, %t203
278 %t205 = fsub float %t202, %t203
279 %t206 = load float* %t182, align 4
280 %t207 = load float* %t184, align 4
281 %t208 = fadd float %t206, %t207
282 %t209 = fsub float %t206, %t207
283 %t210 = fadd float %t208, %t204
284 %t211 = fsub float %t208, %t204
285285 %t212 = fmul float %t211, 0x3FF6A09E60000000
286 %t213 = fadd float %t205, %t209
286 %t213 = fadd float %t205, %t209
287287 %t214 = fmul float %t213, 0x3FFD906BC0000000
288288 %t215 = fmul float %t209, 0x3FF1517A80000000
289 %t216 = fsub float %t215, %t214
289 %t216 = fsub float %t215, %t214
290290 %t217 = fmul float %t205, 0xC004E7AEA0000000
291 %t218 = fadd float %t217, %t214
292 %t219 = fsub float %t218, %t210
293 %t220 = fsub float %t212, %t219
294 %t221 = fadd float %t216, %t220
295 %t222 = fadd float %t198, %t210
296 %t223 = fptosi float %t222 to i32
297 %t224 = add nsw i32 %t223, 4
298 %t225 = lshr i32 %t224, 3
299 %t226 = and i32 %t225, 1023
300 %t227 = add i32 %t226, 128
291 %t218 = fadd float %t217, %t214
292 %t219 = fsub float %t218, %t210
293 %t220 = fsub float %t212, %t219
294 %t221 = fadd float %t216, %t220
295 %t222 = fadd float %t198, %t210
296 %t223 = fptosi float %t222 to i32
297 %t224 = add nsw i32 %t223, 4
298 %t225 = lshr i32 %t224, 3
299 %t226 = and i32 %t225, 1023
300 %t227 = add i32 %t226, 128
301301 %t228 = getelementptr inbounds i8* %t6, i32 %t227
302 %t229 = load i8* %t228, align 1
302 %t229 = load i8* %t228, align 1
303303 store i8 %t229, i8* %t187, align 1
304 %t230 = fsub float %t198, %t210
305 %t231 = fptosi float %t230 to i32
306 %t232 = add nsw i32 %t231, 4
307 %t233 = lshr i32 %t232, 3
308 %t234 = and i32 %t233, 1023
309 %t235 = add i32 %t234, 128
304 %t230 = fsub float %t198, %t210
305 %t231 = fptosi float %t230 to i32
306 %t232 = add nsw i32 %t231, 4
307 %t233 = lshr i32 %t232, 3
308 %t234 = and i32 %t233, 1023
309 %t235 = add i32 %t234, 128
310310 %t236 = getelementptr inbounds i8* %t6, i32 %t235
311 %t237 = load i8* %t236, align 1
311 %t237 = load i8* %t236, align 1
312312 %t238 = getelementptr inbounds i8* %t186, i32 %t160
313313 store i8 %t237, i8* %t238, align 1
314 %t239 = fadd float %t200, %t219
315 %t240 = fptosi float %t239 to i32
316 %t241 = add nsw i32 %t240, 4
317 %t242 = lshr i32 %t241, 3
318 %t243 = and i32 %t242, 1023
319 %t244 = add i32 %t243, 128
314 %t239 = fadd float %t200, %t219
315 %t240 = fptosi float %t239 to i32
316 %t241 = add nsw i32 %t240, 4
317 %t242 = lshr i32 %t241, 3
318 %t243 = and i32 %t242, 1023
319 %t244 = add i32 %t243, 128
320320 %t245 = getelementptr inbounds i8* %t6, i32 %t244
321 %t246 = load i8* %t245, align 1
321 %t246 = load i8* %t245, align 1
322322 %t247 = getelementptr inbounds i8* %t186, i32 %t161
323323 store i8 %t246, i8* %t247, align 1
324 %t248 = fsub float %t200, %t219
325 %t249 = fptosi float %t248 to i32
326 %t250 = add nsw i32 %t249, 4
327 %t251 = lshr i32 %t250, 3
328 %t252 = and i32 %t251, 1023
329 %t253 = add i32 %t252, 128
324 %t248 = fsub float %t200, %t219
325 %t249 = fptosi float %t248 to i32
326 %t250 = add nsw i32 %t249, 4
327 %t251 = lshr i32 %t250, 3
328 %t252 = and i32 %t251, 1023
329 %t253 = add i32 %t252, 128
330330 %t254 = getelementptr inbounds i8* %t6, i32 %t253
331 %t255 = load i8* %t254, align 1
331 %t255 = load i8* %t254, align 1
332332 %t256 = getelementptr inbounds i8* %t186, i32 %t162
333333 store i8 %t255, i8* %t256, align 1
334 %t257 = fadd float %t201, %t220
335 %t258 = fptosi float %t257 to i32
336 %t259 = add nsw i32 %t258, 4
337 %t260 = lshr i32 %t259, 3
338 %t261 = and i32 %t260, 1023
339 %t262 = add i32 %t261, 128
334 %t257 = fadd float %t201, %t220
335 %t258 = fptosi float %t257 to i32
336 %t259 = add nsw i32 %t258, 4
337 %t260 = lshr i32 %t259, 3
338 %t261 = and i32 %t260, 1023
339 %t262 = add i32 %t261, 128
340340 %t263 = getelementptr inbounds i8* %t6, i32 %t262
341 %t264 = load i8* %t263, align 1
341 %t264 = load i8* %t263, align 1
342342 %t265 = getelementptr inbounds i8* %t186, i32 %t163
343343 store i8 %t264, i8* %t265, align 1
344 %t266 = fsub float %t201, %t220
345 %t267 = fptosi float %t266 to i32
346 %t268 = add nsw i32 %t267, 4
347 %t269 = lshr i32 %t268, 3
348 %t270 = and i32 %t269, 1023
349 %t271 = add i32 %t270, 128
344 %t266 = fsub float %t201, %t220
345 %t267 = fptosi float %t266 to i32
346 %t268 = add nsw i32 %t267, 4
347 %t269 = lshr i32 %t268, 3
348 %t270 = and i32 %t269, 1023
349 %t271 = add i32 %t270, 128
350350 %t272 = getelementptr inbounds i8* %t6, i32 %t271
351 %t273 = load i8* %t272, align 1
351 %t273 = load i8* %t272, align 1
352352 %t274 = getelementptr inbounds i8* %t186, i32 %t164
353353 store i8 %t273, i8* %t274, align 1
354 %t275 = fadd float %t199, %t221
355 %t276 = fptosi float %t275 to i32
356 %t277 = add nsw i32 %t276, 4
357 %t278 = lshr i32 %t277, 3
358 %t279 = and i32 %t278, 1023
359 %t280 = add i32 %t279, 128
354 %t275 = fadd float %t199, %t221
355 %t276 = fptosi float %t275 to i32
356 %t277 = add nsw i32 %t276, 4
357 %t278 = lshr i32 %t277, 3
358 %t279 = and i32 %t278, 1023
359 %t280 = add i32 %t279, 128
360360 %t281 = getelementptr inbounds i8* %t6, i32 %t280
361 %t282 = load i8* %t281, align 1
361 %t282 = load i8* %t281, align 1
362362 %t283 = getelementptr inbounds i8* %t186, i32 %t165
363363 store i8 %t282, i8* %t283, align 1
364 %t284 = fsub float %t199, %t221
365 %t285 = fptosi float %t284 to i32
366 %t286 = add nsw i32 %t285, 4
367 %t287 = lshr i32 %t286, 3
368 %t288 = and i32 %t287, 1023
369 %t289 = add i32 %t288, 128
364 %t284 = fsub float %t199, %t221
365 %t285 = fptosi float %t284 to i32
366 %t286 = add nsw i32 %t285, 4
367 %t287 = lshr i32 %t286, 3
368 %t288 = and i32 %t287, 1023
369 %t289 = add i32 %t288, 128
370370 %t290 = getelementptr inbounds i8* %t6, i32 %t289
371 %t291 = load i8* %t290, align 1
371 %t291 = load i8* %t290, align 1
372372 %t292 = getelementptr inbounds i8* %t186, i32 %t166
373373 store i8 %t291, i8* %t292, align 1
374 %t293 = add nsw i32 %t168, 1
375 %t294 = icmp eq i32 %t293, 8
374 %t293 = add nsw i32 %t168, 1
375 %t294 = icmp eq i32 %t293, 8
376376 br i1 %t294, label %bb295, label %bb167
377377
378 bb295:
378 bb295:
379379 ret void
380380 }
381381