Nel corso che sto leggendo, c'è questo esempio per mostrare che un fattore di potenza basso porta a più corrente assorbita, e quindi più potenza persa nelle linee di trasmissione.
Supponiamo che un determinato carico richieda 1 kW per funzionare correttamente.
Se il fattore di potenza fosse 0,9 e l'alimentazione fornisce 110 V, avremmo bisogno di 10 A. Se il fattore di potenza fosse 0,6 e l'alimentazione fornisce 110 V, avremmo bisogno di 15 A.
Tuttavia, qualcosa qui non ha senso.Se consideriamo l'alimentatore come una fonte di tensione ideale, la corrente non ha nulla a che fare con la potenza data.
Sembra che pensasse che il carico avrebbe assorbito la potenza necessaria per funzionare correttamente, qualunque cosa accada.
D'altra parte, mi sembra che la corrente rimarrebbe la stessa, essendo influenzata dall'impedenza del carico, portando ad una potenza reale inferiore e quindi un carico malfunzionante.
Dove ho sbagliato?