У меня есть небольшая проблема в моем коде для нахождения минимального значения из серии чисел. Когда я инициализирую min = 0
, минимальное значение получается равным 0. Но когда я не инициализирую min
, ответ правильный!как правильно инициализировать переменную min?
Почему это происходит? Xcode сообщает мне, что я должен инициализировать переменную min
.
int a[20] = {0};
int max = 0;
int min ;
int sum = 0;
srand((unsigned)time(NULL));
for (int i = 1; i <= 20; i++) {
a[i] = 100 + rand()%(200 - 100 + 1);
if (max < a[i]) {
max = a[i];
}
printf("%d,%d\n",a[i],i);
if (min > a[i]) {
min = a[i];
}
sum += a[i];
}
printf("最大值:%d\n",max);
printf("最小值:%d\n",min);
printf("平均值:%d\n",sum/20);
Что вы думаете 'if (min> a [i])' делает? Просто инициализируйте 'min' в' INT_MAX' из 'limits.h', и все будет работать нормально. –