Почему линейные системы показывают синусоидальную точность?


9

Я ищу доказательства синусоидальной верности. В DSP мы много учимся о линейных системах. Линейные системы являются однородными и аддитивными. Еще одно условие, которое удовлетворяет, состоит в том, что, если сигнал является синусоидальной или cos-волной, выходной сигнал только изменяет фазу или амплитуду. Почему? Почему выходной сигнал не может быть совершенно другим выходным сигналом, если синусоидальный сигнал задан как входной?


1
Добро пожаловать в DSP. Отличный вопрос!
Фонон

5
Ваше понимание неполно. Линейная (то есть гомогенная и аддитивная) система не обязательно обладает тем свойством, что входная синусоида создает синусоиду той же частоты, но, возможно, другой амплитуды и фазы. Необходимо наложить дополнительное ограничение на то, что система также не зависит от времени. Например, если вход x(t) выдает выход x(t)cos(2π109t) , система является однородной и аддитивной, а следовательно, линейной, но не удовлетворяет свойству SISO (синусоидальный синусоидный выход).
Дилип Сарвате

Дилип (или кто-то другой) должен поставить в ответ: «Они этого не делают». Только стационарные линейные системы делают.
hotpaw2

2
В качестве примечания, еще один способ сформулировать этот вопрос: «Почему экспоненты являются собственными функциями линейных инвариантных по времени систем?»
Джейсон Р

Ответы:


8

Несколько визуальное дополнение к другим ответам

Вы говорите о системах, которые являются линейными и инвариантными по времени.

У экспоненциальных функций есть одно своеобразное свойство (и оно может быть им фактически определено): выполнение преобразования во времени приводит к той же функции, умноженной на константу. Так

ett0=et0et

Математическая графика

Красная экспонента также может быть синей, деленной на e или сдвинутой на 1 секунду вправо

В общем, это также верно для сложных экспонент

Можете ли вы представить себе график сложной гармоники, такой как x(t)=ej2πt ? Если это так, вы увидите, что это как пружина: она вращается вдоль сложной плоскости с течением времени.

Математическая графика

Вращение этой пружины (умножение на комплексное число в единичном круге) аналогично ее переводу. Вы, наверное, когда-нибудь в жизни испытывали этот визуальный эффект

введите описание изображения здесь

Это принцип любого стандартного винта тоже.

Предположим, мы вводим это в линейную инвариантную по времени систему. Вы получаете вывод Теперь введите повернутую версию этой пружины. Из - за линейности, выходной сигнал должен быть у поворачивается на ту же величину. Но так как вращение эквивалентно время трансляции, и система не зависит от времени, выход также должен быть у времени переведено на ту же сумму. Таким образом, у должен удовлетворять тому же свойству, что и вход: вращение должно быть эквивалентно определенному временному переводу. Это происходит только тогда, когда выходное значение кратно исходной пружине.yyyy

Сколько стоит перевод? Ну, это прямо пропорционально вращению, как это случилось бы с пружиной. Чем плотнее петли пружины (чем быстрее она вращается), тем меньше ее время смещается для определенного вращения. Чем плотнее петли винта, тем больше нужно сделать кругов, чтобы он полностью соответствовал размеру. И когда половина раундов завершена, винт будет вдвое быстрее ... Выходной сигнал должен удовлетворять тому же соотношению, поэтому выходная пружина вращается с той же частотой, что и входной.y

Наконец, напоминание

cos(t)=ejt+ejt2

sin(t)=ejtejt2j

Таким образом, то, что происходит с экспонентами, на самом деле не обязательно должно происходить с косинусами и синусами в самом общем случае. Но если система тоже реальна, это другая история ...

В общем, по этой же причине любая экспонента является «собственной функцией» (выходной сигнал пропорционален входному) линейных систем, не зависящих от времени. Вот почему для этих систем Z-преобразования и преобразования Лапласа так полезны


Как / Откуда вы взяли эту анимацию?
Спейси

@ Мохаммад взял это со страницы википедии на винте Архимеда
Рохо

Где ты взял этот штопор? :) math.stackexchange.com/q/144268/2206
эндолиты

@endolith О, я только что сделал это в Mathematica. Твои приятнее;)
Rojo

4

Рассмотрим систему с входом и выходом y ( t ) . Заимствуя обозначения из ответа Ларса1, обозначим это соотношение x ( t ) y ( t ) . Система называется линейной инвариантной по времени (LTI) системой, если она удовлетворяет следующим свойствам:x(t)y(t)x(t)y(t)

H. Если , то α x ( t ) α y ( t ) .x(t)y(t)αx(t)αy(t)

A. Если иx1(t)y1(t) , то x 1 ( t ) + x 2 ( t ) y 1 ( t ) + y 2 ( t ) .x2(t)y2(t)x1(t)+x2(t)y1(t)+y2(t).

Т. Если , то x ( t - τ ) y ( t - τ ) для любого действительного числа τ .x(t)y(t)x(tτ)y(tτ)τ

Свойства H и A вместе эквивалентны свойству L

L. Если и x 2 ( t ) x1(t)y1(t) , то α x 1 ( t ) + β x 2 ( t ) α y 1 ( t ) + β у 2 ( т ) .x2(t)y2(t)αx1(t)+βx2(t)αy1(t)+βy2(t)


Периодический ввод в систему, не зависящую от времени, производит периодический вывод.
Предположим, что является периодическим сигналом с периодом.x(t) , то есть x ( t - n T ) = x ( t ) для всех целых чисел n . Тогда из свойствТ, непосредственно следуетчто у ( т ) также периодический сигнал с периодом T . Таким образом, мы можем выразить y ( t ) как ряд Фурье:Tx(tnT)=x(t)ny(t)Ty(t)

гдеω=2π/T- основная частота.

y(t)=a02+n=1ancos(nωt)+bnsin(nωt)
ω=2π/T

Так как и грех ( ω т ) являются периодическими сигналами, мы имеем , что для любого времени инварианта системы, будь то линейный или нет, потому ( ω т )cos(ωt)sin(ωt) На самом деле, для

cos(ωt)p02+n=1pncos(nωt)+qnsin(nωt)sin(ωt)r02+n=1rncos(nωt)+snsin(nωt).
линейного стационарна (LTI) системы, все и с п равны нулю , за исключением для р 1 , д 1 , р 1 , сpn,qn,rn,sn . Чтобы понять, почему это так, давайте вычислим реакцию системы LTI на cos ( ω t - θ ) двумя различными способами и сравним результаты.p1,q1,r1,s1cos(ωtθ)

Поскольку , мы получаем от свойствLи выше уравнение, соз ( ω т - θ )cos(ωtθ)=cos(θ)cos(ωt)+sin(θ)sin(ωt) С другой стороны, так как

cos(ωtθ)p0cos(θ)+q0sin(θ)2+n=1(pncos(θ)+rnsin(θ))cos(nωt)+n=1(qncos(θ)+snsin(θ))sin(nωt).
является просто задержанной версией cos ( ω t ) , из свойстваcos(ωtθ)=cos(ω(tθ/ω))cos(ωt)T мы получаем, что Эти два ряда Фурье должны быть одинаковыми независимо от того, какое значениеθмы выберем. Сравнивая коэффициенты, мы видимчто P0/2не может равняться(р0соз(thetas)+г0соз(thetas
cos(ωtθ)p02+n=1pncos(nωtnθ)+qnsin(nωtnθ)=p02+n=1(pncos(nθ)qnsin(nθ))cos(nωt)+n=1(qncos(nθ)+pnsin(nθ))sin(nωt).
θp0/2 для всех θ, если только p 0 = r 0 = 0 . Аналогичным, для любого п > 1 , р п соз ( п & thetas ) - д п зт ( п thetas ; ) не может равняться р п сов ( θ ) + г п грех ( θ ) и т.д. для всех & thetas исключением случаевкогда р п = д(p0cos(θ)+r0cos(θ))/2θp0=r0=0n>1pncos(nθ)qnsin(nθ)pncos(θ)+rnsin(θ)θ . Однако для n = 1 , p 1 cos ( θ ) - q 1 sin ( θ ) = p 1 cos ( θ ) + r 1 sin ( θ ) подразумевает, что r 1 = - q 1 , и, аналогично, s 1 = p 1 . Другими словами, для системы LTI, pn=qn=rn=sn=0n=1p1cos(θ)q1sin(θ)=p1cos(θ)+r1sin(θ)r1=q1s1=p1
cos(ωt)p1cos(ωt)+q1sin(ωt)sin(ωt)q1cos(ωt)+p1sin(ωt).
Now, p1cos(ωt)+q1sin(ωt)=Bcos(ωtϕ) where B=p12+q12 and ϕ=arctan(q1/p1). Therefore, Properties T and H give us that
Acos(ωtθ)ABcos(ωtϕθ).
Any sinusoid of frequency ω rad/s can be expressed as Acos(ωtθ) for appropriate choice of A and θ, and so the above result is what we need.

SISO property of linear time-invariant systems: If the input to an LTI system is a sinusoid, the output is a sinusoid of the same frequency but possibly different amplitude and phase.

This is not quite the result that the OP wanted -- he wanted a proof that a linear system (one in which Properties H and A (equivalently, Property L) hold but not necessarily Property T) has the SISO property, but as the development above shows, Property T must hold in order to prove even the weaker result that periodic input results in periodic output.


As a final comment, note that it is not necessary to use complex numbers or convolution theorems or Fourier or LaPlace transforms, impulses, eigenfunctions etc to prove the SISO property. It follows from Properties L and *T and the trigonometric identity

cos(αβ)=cos(α)cos(β)+sin(α)sin(β).

What would happen if x(t) is not periodic (not periodic could happen for incommensurate frequencies)? Need T be finite? Could we gain something in terms of generality by requiring x(t) to be square integrable in the observation time interval?
Lars1

@Lars1 If the input to a LTI system is not periodic, the output is not periodic either. As a specific case, if x(t)=A1cos(ω1t)+\A2cos(ω2t) where ω1/ω2 is irrational (and so input is not periodic), then from Property L we have that
A1cos(ω1t)+\A2cos(ω2t)A1B1cos(ω1tϕ1)+\A2B2cos(ω2tϕ2)
which output is not periodic either. So there is no problem.
Dilip Sarwate

@Sarwate: Not quite what I meant to say, sorry. Was wondering if e.g. x(t)=cos(πt)+cos(2t) would be handled by the case above. If we require a finite observation time interval with tT=[0;T] any square integrable signal can be written as a Fourier series in the observation interval. For finite T this is likely the most general approach and your derivations still hold as far as I can see. Obviously the Fourier series approach forces periodicity outside T but if we only care about the signal t\ont this does not really matter.
Lars1

@Lars1 I don't agree with your comment that the enforced periodicity outside [0,T] does not matter. If input x(t) produces output y(t) in an LTI system, then applying the SISO property to the Fourier series does not give y(t) restricted to [0,T]. Instead, what is obtained is one period of the periodic response y^(t) to the periodic signal x^(t) where for each time instant t, <t<,
x^(t)=x(tmodT).
In other words, the T-second segment of x(t) repeated periodically (with period T) along the time axis.
Dilip Sarwate

E.g. in nonlinear RF systems we often choose a sum of incommensurate sinusoidals to ensure a unique frequency mapping from input to output. These result in a non-periodic signal, and I just was curious to why you had to assume periodicity above which to me seems to exclude most practically relevant signals. Square integrable x(t) and y(τ) in finite observation intervals can be written as Fourier series. I did not (intend to) claim that t was defined on the same interval for x and y BTW and y could be a time offset version. I'll stop here to avoid further confusion.
Lars1

3

Here's the idea of the proof. Let's assume we can describe the output of a system by a convolution,

y(t)=kt(tτ)f(τ)dτ

Notice that the function (aka "kernel") kt(t) as I've written it here may change as t varies. However, we usually make an important assumption about kt(t) - that it doesn't change with time. This is called "linear time-invariance" (also check out the Wikipedia page on Toeplitz matrices). If our system is linear time-invariant, kt is the same for any t, and so we'll just ignore the subscript and write

y(t)=k(tτ)f(τ)dτ

Now, let's say f(t) is a sinusoid, say f(t)=eiωt. So, we have

y(t)=k(tτ)eiωτdτ=k(τ)eiω(tτ)dτ=eiωtk(τ)eiωτdτ

Notice that the last equation has no dependence on t! As a result, let's define K(ω):=k(τ)eiωτdτ.

Thus, we've discovered that

y(t)=K(ω)eiωt

or, in other words, y(t) is a sinusoid oscillating at the same frequency as the input, but weighted by a complex number K(ω) which is constant with respect to t (and thus may shift the amplitude and phase of the output with respect to the input).

EDIT: The comments noted this answer was pretty loose. My goal was to avoid details like different forms of the Fourier transform, but I ended up conflating the Fourier and Laplace transforms. What I called Fourier transform previously was only the Fourier transform if s was purely imaginary. I decided that clarifying this route would necessarily add too much notation, so I'm relegating it to italics.

Now, take the Laplace transform, to end up with (since Laplace transform takes convolution to multiplication),

Y(s)=K(s)F(s)

Now, if f is a sinusoid, say f(t)=eiωt, its Laplace transform is a delta function at that ω. That is, F(s)=δw(s). So, the Laplace transform of the output is also a delta function at that frequency:

Y(s)=K(s)δω(s)=K(ω)δω(s)

Since K(ω) is just some complex number that depends on the input frequency, the output y(t) will be a sinusoid with the same frequency as the input, but with potentially different amplitude and phase.

Incidentally, I just noticed you can find the same idea written out in the time domain at Wikipedia. A higher-level explanation (which you can ignore if it's too mathy) is that linear systems theory is defined through the convolution operation, which is diagonalized by the Fourier transform. Thus, a system whose input is an eigenvector of the Fourier transform operator will output only a scaled version of its input.


-1 What is s and how does it relate to ω? And could you explain what is meant by δω(s)? Your equation Y(s)=K(s)δωs) is sheer nonsense.
Dilip Sarwate

@DilipSarwate I suspect he's using Laplace transform notation instead of Fourier notation.
Jim Clay

@sydeulissie The problem is that you assert that K(w) is "just some complex number", but you haven't said why it's just a complex number at each frequency. That's the heart of the proof.
Jim Clay

3
This has a correct outline but many problems in the details. Not downvoting, but it should be fixed.
Phonon

1

Say we have a system with input x1(t) which generates the output y1(t)=G(x1(t)), and with an input x2(t) we get the output y2(t)=G(x1(t)). The system is linear if:

ax1(t)+bx2(t)y(t)=G(ax1(t)+bx2(t))=aG(x1(t))+bG(x2(t))=ay1(t)+by2(t)

where a and b are (real or complex) constants. If the equations above are not fulfilled the system is nonlinear. The equation can be used for real and complex signals in time and frequency domains. This is the same as the superposition principle must be valid. As Sarwate illustrates in a comment this does not prevent the system from generating new frequencies. We are probably often just used to indirectly assume time invariance. The reason is likely that it is often possible to map a time varying system to a time invariant system by applying one or more external controlling signals.

From the definition of linearity and further requiring a time invariant system we can directly see that two (or more signals) can not interfere and generate new frequency components while still complying with the linearity requirement. The principle of superposition also follows directly from the linearity definition.

Also from the linearity definition the concept of convolution for linear time invariant systems follow. For nonlinear systems we for example have Volterra series which is a multi-dimensional convolution integral - the 1-dimensional convolution integral is a special case of the Volterra series. This is way more complicated than linear techniques though. But based on the convolution integral for a linear system the derivation follows the one shown by @sydeulissie.

To demonstrate a simple counter example of a nonlinear relation where new frequencies are generated we could use G:y(t)=x2(t). Let us first show that this is indeed nonlinear. If we apply the input x1(t) we get the output y1(t)=x12(t) and if we apply the input x2(t) we get the output y2(t)=x22(t). The output y(t) is then:

y(t)={ax1(t)+bx2(t)}2=a2x12(t)+b2x22(t)+2abx1(t)x2(t)

or:

y(t)=a2y1(t)+b2y2(t)±2aby1(t)y2(t)ay1(t)+by2(t)

and we have thus proved x2 to be nonlinear (which can hardly be surprising). If we apply a single sinusoidal signal x(t)=Acos(2πf0t+ϕ0) to the system G we have the output:

y(t)=x2(t)=A2cos2(2πf0t+ϕ0)=A22+A22cos(2π2f0t+2ϕ0)

The output here contains a DC component and another component at the frequency 2f0. The nonlinear function x2 thus generates new frequency components.

In conclusion it can be observed that a linear system may generate frequency components not present in the input (if the system is time variant). If the system is linear time invariant the output can not include frequency components not present in the input.

Thanks to @Sarwate for the most relevant comment.


You are right. I forgot to mention that I refer to time invariant systems. The example you provide is a time varying system where your example does not hold. Normally such a signal as the cos(t) is applied at an external port as a signal in which case the linearity is not fulfilled. I have noted the time invariant part in the answer above.
Lars1

@DilipSarwate So is that that only LTI systems have that property?
Phonon

Just checked a couple of books to be on the safe side. Actually there seems to be some difference in the details. One definition in Yang and Lee's book on circuit systems from 2007 says: "A system is said to be linear if the superposition principle holds, i.e. its output to a linear combination of several arbitrary inputs is the same as the linear combination of the outputs to individual inputs". In that respect Sarwate's example is linear - but not time invariant. Other refs are less precise though. Thanks to @Sarwate.
Lars1

1
Комментарий, упомянутый Lars1 с исправленными опечатками: рассмотрим систему, которая производит выводИкс(T)соз(T) от ввода Икс(T), Затем,aИкс1(T)+бИкс2(T) производит вывод
(aИкс1(T)+бИкс2(T))соз(T)знак равноaИкс1(T)соз(T)+бИкс2(T)соз(T)
так что система является линейной, но без заявленного свойства.
Dilip Sarwate

@Sarwate How is the system which produces output x(t) cos(t) time varying? I am a beginner in DSP's
Hobyist

1

As Dilip Sarwate pointed out, only linear shift-invariant (LSIV) systems have the SISO (sinusoid in- sinusoid out) property.

The short answer to your question is that the complex exponentials eȷωt are are the eigenfunctions of a LSIV system. By the definition of eigenfunction, if the input is eigenfunction (sine/cos can be represented by complex exponential according to Euler's formula), the output is just the product of the input and the corresponding eigenvalue, which could be a complex number, and that's where changes the phase/amplitude come from.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.