У нас есть a, b, c, dinRR такие, что ab = 2 (c + d). Как доказать, что хотя бы одно из уравнений x ^ 2 + ax + c = 0; х ^ 2 + bx + d = 0 имеют двойные корни?

У нас есть a, b, c, dinRR такие, что ab = 2 (c + d). Как доказать, что хотя бы одно из уравнений x ^ 2 + ax + c = 0; х ^ 2 + bx + d = 0 имеют двойные корни?
Anonim

Ответ:

Утверждение неверно.

Объяснение:

Рассмотрим два квадратных уравнения:

# x ^ 2 + ax + c = x ^ 2-5x + 6 = (x-2) (x-3) = 0 #

а также

# x ^ 2 + bx + d = x ^ 2-2x-1 = (x-1-sqrt (2)) (x-1 + sqrt (2)) = 0 #

Затем:

#ab = (-5) (- 2) = 10 = 2 (6-1) = 2 (c + d) #

Оба уравнения имеют разные реальные корни и:

#ab = 2 (c + d) #

Так что утверждение неверно.