2007年12月24日 星期一

暗藏於晶片間的數位「聲道」玄機:I2S介面

轉載至http://tech.digitimes.com.tw/print.aspx?zNotesDocId=2D8D85C2E646BB564825700000435D7D

與I2C字樣與含意相近的,I2S的全稱是Inter-IC Sound,意指在晶片間傳遞的音源,至於會有哪些晶片需要相互傳遞數位音源,這包括了數位信號處理器(DSP)、類比數位轉換晶片(ADC)、數位類比轉換晶片(DAC)、數位過濾晶片(Digital Filter)、CD更錯晶片(Error Correction)、數位錄音晶片(Digital Recording)、數位電視音源晶片(Digital TV)、數位錄音帶(Digital Audio Tape)等,另外全球定位系統晶片(GPS)、數位廣播晶片(DAB)等也經常用上,或者SPDIF與I2S兩種介面都提供,前者適合外傳、外接,後者方便數位音源在機內進行再傳遞、再轉換、再處理。

簡單而言I2S有3條線路,稱呼與功用大體如下:

■SCK(continuous Serial Clock):串列傳輸的時脈線,專精、獨立的時脈傳遞。
■SD(Serial Data):串列傳輸的資料線,傳遞兩個聲道的數位音源資訊。
■WS(Word Select):字元選擇線,字元(Word)在此所指即是音源聲道(Channel)。

這3條線路的邏輯電壓準位等相關要求,全然比照一般TTL標準,即0V∼0.8V為Lo、2.4∼5.0V為Hi,就連源出(Source)與汲入(Sink)的電流值標準也類同於TTL,事實上I2S本就發創於標準TTL仍相當盛行的80年代,因此電氣特性的表現過於「基本」自然不足為怪。

接著我們要說明I2S的連接,一般而言I2S是一對一的連接,即音源發送端與音源接收端直接相連,且SD的資料傳輸永為單一方向不會改變,並非是雙向式傳輸。進一步的,到底由誰來發送SCK時脈呢?無論發送端或接收端都可擔任,不過必須在設計之初就決定由哪端發出,且在運作過程中無法再行變換。

同樣的,WS聲道控制線路也要一起頭就決定由誰來輸出,當WS輸出0時表示SD將要輸出的是Channel 1(或稱Channel A)的左聲道音源,反之輸出1則是Channel 2(或稱Channel B)的右聲道音源。簡單來說,3線都是單方單向的傳遞線路。

雖然在I2S介面上有收有發,但誰是I2S介面的主控者(Master)、受控者(Slave)呢?這取決於線路的配置法,凡是對外輸出SCK線路訊號的即是I2S的主控者,至於SD、WS在設計上可決定由主控端發送,也可決定由受控端發送,毫不影響主控、受控的角色。

另外也有一種比較特別的搭配組態,即是由一個超然中立的控制端來充當主控者,由它來廣播SCK時脈訊號,同時也由其來掌控及發送WS訊號。

附註:一般而言主控者選擇擔任發送端後就無法擔任接收端,或擔任接收端後就無法擔任接收端,不過若真的希望角色能互換,也是允許用軟體對接腳進行輸出入功用的再設定、轉換來實現。



▲圖說:誰負責SCK的對外發送,誰就是I2S介面中的主控者,無論發送器、接收器、控制器都可以是主控者。(圖片來源:Semiconductors.Philips.com)

刻意安排先行傳輸MSB的用意

接著我們要說明收端兩端如何傳遞SD資訊,此即是以SCK時脈為基準,當SCK由Lo轉成Hi(即上升緣觸發)時,發送端的SD資訊就會被接收端給閂鎖(Latch)。一旦Latch後,下一筆資料可選擇在任何時間進行變換,I2S對資料的變換時機沒有強制的要求。至於WS,一樣可在任何時間進行變化,但接收端的取樣與資訊認定一樣發生在上升緣觸發的時間點。

值得注意的是,WS的0、1狀態轉變時,同一上升緣的SD資訊依然是WS未轉態前的聲道資訊,確定WS狀態轉變後,下一個上升緣時SD線路才正式傳輸WS新指定聲道的音源資訊,畢竟接收端在接獲聲道變換的訊息後,需要一點時間進行內部邏輯機制的調整與準備,無法即時接收反應。

再來是壓軸部分:SD的數位音源傳輸,SD的串列傳輸順序是先傳遞最高位元(MSB,亦稱最高影響性位元),最後才傳遞LSB,或許有人認為這只是設定安排上的不同,應當也可以將順序反過來傳遞,但其實不然,以MSB為最優先傳送實有其充分理由。

I2S希望做到收發兩端不需任何的事先溝通協議就能正常進行傳遞,而所謂事先協議指的是讓兩端取得默契,如接下來的傳輸將是每聲道、每取樣多少位元解析度的資訊,是16-bit?20-bit?還是24-bit?

I2S之所以能不用事先溝通就可以直接傳送,就在於使用MSB先傳的特性,如果發送端是20-bit,接收端是更高解析度的24-bit,那麼傳送完20bits後的剩餘4bits可以由接收端自行補「0」,反過來說,若接收端只有16-bit,則傳送過來的20bits中,最後的4bits資訊可以直接丟捨忽略。同樣的道理並不限於上面所述的16-bit、20-bit、24-bit,只要有解析度位元數差距的情形都一律適用。



▲圖說:I2S在進行WS邏輯位準的改變後,SD便在下一個SCK時脈時開始傳輸另一聲道的數位音訊,並從MSB開始傳遞。(圖片來源:Semiconductors.Philips.com)

至於I2S可以含在多少音源資訊?以基本規範而言,一個時脈400nS,因此傳輸頻率為2.5MHz,等於可傳送2.5Mbps,如此約可傳遞24-bit解析度、48kHz取樣率的雙聲道音源,因為:

24bits x 48000Hz x 2Channel = 2304000bits/Sec = 2.304Mbps

2.5Mbps減去2.304Mbps後,只剩200kbps不到的傳輸頻寬,實在無法再傳遞什麼。不過,由於I2S在時序上的制訂都盡可能採行相對性、比例性的定義,以一個時脈週期為基準並稱為T,高低準位的時間最少須大於0.35T,延遲時間必須小於0.8T,上升時間必須大於0.15T等,這表示整個傳輸可以單純地透過時脈頻率拉升來加速資料傳量,不需要為提昇傳輸而有太多的環節顧慮。

附註:一般音樂CD的解析度為16-bit,取樣率為44.1kHz,但也可增至更優質的20-bit、24-bit,而專業的DAT其取樣率為48kHz,而DSR稍低,為32kHz。



▲圖說:I2S介面對時序的規範要求都盡可能採行相對性、比例性的設計,以SCK的一個時脈週期為T,其餘相關要求都以T為基準比例。(圖片來源:Semiconductors.Philips.com)

結論

在今日大談5.1、6.1的多聲道時代,以及Intel提出解析度高達32-bit的高清晰度音效(HD Audio)的時代,各位可能會對筆者在此所談論的雙聲道、24-bit感到不耐,然各位仔細想,眼前可有解析度高達32-bit的錄音麥克風?即便有可有任何音樂內容是以32-bit取樣錄製?(18-bit已是極優)很明顯的,24-bit依舊是萬中挑一的嚴選,一般多為16-bit、20-bit,就連DVD-Audio、SACD等也僅在24-bit。
另外5.1、6.1的多聲道,也僅適合在打造家庭劇院,狹小、個人專用的書房空間並不合適,且只有一人使用的情況下甜蜜區(Sweet Spot)不需太大,用2.1的喇叭組態便能營造足夠的方位音效感,至於真正要如電影般的大範圍甜蜜區佈建,就要動用如SDDS(Sony Dynamic Digital Sound)的7.1組態,一般5.1也辦不到。

況且,在外出時的個人使用,或在車內等場合也不能用多聲道,除非是林肯級座車才有可能,一般房車休旅車同樣是雙聲道即足夠,而在隨身用、車用電子、DAB/DVB/DMB(數位音訊、視訊、多媒體資訊廣播)、GPS等興盛的今天,電子工程師必然要務實地對機外SPDIF、機內I2S等數位音訊介面有通透性瞭解才行。

附註:I2S之後亦有增強型規格,稱為I2S Enhanced。


▲圖說:要佈建電影院等級的大範疇方位音效甜蜜區,需動用SDDS(Sony Dynamic Digital Sound)的8聲道技術才行。(圖片來源:SDDS.com)

2007年12月12日 星期三

高清晰度音訊編解碼晶片-HD Audio Codec

轉載至http://tech.digitimes.com.tw/ShowNews.aspx?zCatId=C16&zNotesDocId=0000041734_B500J881SB2RYSC5UKMVG

(郭長祐/DigiTimes.com)有關PC的音訊功效,多年前在AC97獲得全面性的普及後,已有一段時間沒有大幅的推進提升,一直到Intel提出高清晰度音效(HD Audio),PC的音效技術及市場才再次找到新方向,而在AC97普及後與HD Audio未提出的期間,各音效晶片業者也只能依據自有的摸索及主張,以原有AC97標準為基礎進行若干擴充、強化,以提供比標準AC97更佳的音源表現、音訊功效,然而這樣的嘗試由於不具標準交換性,因此市場也有限。

不過,也因為這些摸索、嘗試,才催生出今日的HD Audio,HD Audio看似革新,實際上卻是種演進,將過往各家業者的摸索、嘗試進行整理歸納,將共通的提升需求列入HD Audio技術規範中,如同秦始皇未修築長城前,七雄中的偏北國度(燕、趙等)早已各自建立邊防城塞,秦一統後只是再將其連貫而已。

標準之外的特點

HD Audio成為PC新一代的共通音效標準後,各業者也紛紛推出呼應HD Audio的Codec晶片,不過各業者即便推出支援HD Audio規範的Codec晶片,也不可能單純以合乎標準為滿足,畢竟多年來各業者都早已建立自有晶片的技術特點與設計風格,以利市場中的差異性競爭,所以在滿足HD Audio標準外,必然有更多於標準外的特點值得主張、宣揚。

舉例而言,C-Media公司向來主張Audio Controller(音效控制晶片)與Audio Codec(音效編解碼晶片)合一的設計,即便今日多數的PC晶片組都已內建Audio Controller,此作法也仍舊維持。或如ADI公司,該公司與Intel向來保持密切的合作,所以在符合HD Audio標準之外,Intel在音訊方面所推行的相關技術也積極支持,如Sonic Focus技術即是一例。
此外,各家也都持續標榜Codec晶片的基礎混訊技術表現,例如支援多種的取樣率、支援個別的通道/聲道調配、各通道/聲道可各自設定取樣率及解析度、各DAC(及ADC)都具備高轉換品質(高SNR值)等。

另外,也因為數位家庭概念的當熱,環繞音效技術的支援也格外受Codec晶片業者所重視,紛紛將環繞音效以硬體(晶片電路)或軟體(驅動程式)方式搭配實現,例如支援Dolby技術、dts技術、QSound技術等,且經常同時多項支援,例如同時支援Dolby Digital Live與Dolby Pro Logic IIx,或同時支援dts Interactive與dts NEO:PC等。

事實上近年來Codec晶片業者早就不斷將各類環繞音效技術內建到Codec軟硬體方案,使Codec方案更為加值,然相對的也會增加方案成本,畢竟技術需要支付授權費才能取得,需要支付權利金才能量產,因此在以成本為考量的設計中,反而該選擇較少內建環繞音效技術的Codec晶片。

當然,在自有特色特點之外,更重要的是獲得Wintel的認同,目前晶片業者在宣稱其Codec晶片已合乎Intel HD Audio Rev.1.0標準外,也通常會主張該晶片已通過Microsoft的Windows Vista Premium Logo認證,確保對Windows Vista的支援,事實上Wintel也盡可能將HD Audio與Windows Vista劃上等號,並為此建立新的音效驅動架構,即UAA(Universal Audio Architecture),若想讓HD Audio支援Windows Vista之前的作業系統(如Windows XP)或非Windows的系統(如Mac OS X),則相關的驅動程式支援,就需要倚賴Codec晶片業者的研發心力才能實現。

重視錯接容忍與錄音品質

HD Audio不單是強調更多的聲道數、更高的音質(32-bit解析度、192kHz取樣率,但Codec的務實設計仍是使用24-bit解析度),也強調音源線路與音源孔座的隨插即用性,過去音源孔錯接不易被察覺,而今HD Audio要求必須能向使用者發出錯接提醒,甚至在硬體上直接進行連接調換,使錯接根本不會發生。

更進一步的,Codec晶片業者也以此種便利方向進行更多的擴展延伸,例如可自動偵測接入的喇叭還是耳機,兩種發聲裝置有不同的阻抗,需要不同的功率放大及驅動,過去通常無法自動偵測。

另外,因為PC的語音輸入功效比過去更常運用,包括語音辨識輸入、視訊會議、網路電話等,所以過去只求堪用的音源輸入已不合格,取而代之的是能支援數位麥克風、回音消除、固定頻率的背景雜音過濾、自動偵測與強化音源方位的感應等,使音源輸入的品質獲得提升。

另外,因為PC的語音輸入功效比過去更常運用,包括語音辨識輸入、視訊會議、網路電話等,所以過去只求堪用的音源輸入已不合格,取而代之的是能支援數位麥克風、回音消除、固定頻率的背景雜音過濾、自動偵測與強化音源方位的感應等,使音源輸入的品質獲得提升。

另外,因為PC的語音輸入功效比過去更常運用,包括語音辨識輸入、視訊會議、網路電話等,所以過去只求堪用的音源輸入已不合格,取而代之的是能支援數位麥克風、回音消除、固定頻率的背景雜音過濾、自動偵測與強化音源方位的感應等,使音源輸入的品質獲得提升。



註1:IDT公司的(STAC系列)Audio Codec晶片產品線購自Sigmatel公司。

2007年10月18日 星期四

把driver搬進Wince下需注意的問題

通常如果廠商所提供的driver夠完善的話,搬移的動作就會簡單許多,而且通常都會有說明檔可參考,所以按著步驟做應該ok

這次搬移的是audio driver,大致上的的搬移動作就是把所提供的driver貼到BSP層,
而需注意到地方有以下幾點:

1.修改BSP下的batch file

To let the drivers know what our BSP is based upon.
set WM_BSP= (BSP)

EX:
set WM_BSP=MAINSTONEIII

2.Every driver also needs to add the board support package to the CDEFINES. For Windows
CE this would be a line in each sources file like the following:

CDEFINES=$(CDEFINES) -DWM_BSP_$(WM_BSP)

This gives us a symbol like WM_BSP_(BSP)

所以在每個sources下要加入

EX:
CDEFINES=$(CDEFINES) -DWM_BSP_MAINSTONEIII

3.在Platform層的driver下的dir要記得做修改,把新加入的driver的資料夾名稱加進裡面,已防止build code時找不到新加入的driver,如下所示:

DIRS=\
wolfson \
wavedev \

4.在build code時常會遇到找不到header file的問題,這是因為在sources下沒有去指定在
build code時要搜尋的路徑,所以要自己手動加入

如下圖所示,有可能會出現類似的錯誤



所以在driver下相對應的子目錄裡的sources就要加入hrader file的指定路徑,如下所示

example:

EXT_INCLUDES=$(_TARGETPLATROOT)\src\drivers\Wolfson\inc\Compatibility

如此在build code時就會到所指定的路徑去找header file

2007年9月18日 星期二

加入可以讓 PE 驗證Bluetooth MAC 的機制

typedef FILE* stream;
stream f_in;
int numclosed;

建立一個可寫入data的檔案並設其路徑
f_in = _wfopen(L"\\My Flash Disk\\BTMAC.txt",L"w");
char s=':';

將 Bluetooth MAC 依序寫入檔案
for(i=0;i<=5;i++)
{
fwprintf(f_in,L"%x",toc->bBTAddr[i]);
if(i<5)
fwprintf(f_in,L"%c",s);
}

numclosed = fcloseall();

2007年9月3日 星期一

何謂SDHC(Secure Digital High-Capacity)

轉貼至聯強E城市

SDHC記憶卡全名是Secure Digital High Capacity,是SD協會在2006年3月發表SD 2.0規格的SD卡高容量版本。SDHC與SD的主要差異在於舊版本使用FAT16檔案系統,意思是管理檔案所在位置的表格(File Allocation Table)用16位元表示,所以最多只能管理65536個sector,再考慮每個sector能儲存32KB的資料量,所以65536 × 32KB = 2GB,SD卡容量上限只能到達2GB。為解決FAT16格式可支援容量有限的問題,SDHC改用了FAT32格式,依規格定義容量最大可達到32GB。

然而改用FAT32格式會對舊型讀卡機、手機或數位相機等產生無法辨識的問題,只有在較新的裝置上才可能支援。為此,新記憶卡特別強調其名稱為SDHC,而非沿用SD,以讓使用者在外觀上明顯看到其有所不同,避免搭配到不相容的裝置。




在過去,SD卡的資料傳輸速率,各家公司的表示方法各不相同,無法清楚瞭解使用的記憶卡是否已經達到裝備需求的速率。SD協會對於資料傳輸速率制定了SD Speed Class(SD傳輸速率級別)。其代表意義為:



SD協會並且要求記憶卡製造商必須在SDHC外觀清楚標示SD Speed Class等級。在拍攝動畫或連續拍攝等高速傳輸的前提下,往後市場上銷售的消費性電子產品,都會標示有推薦的SD Speed Class,以供消費者方便購買使用。




2007年7月15日 星期日

WinCE Interrupt (中斷)

關於中斷的相關名詞解釋: (參照書本及網路資源)
1.何謂IRQ:
IRQ即所謂的中斷請求(Interrupt Request) ,是指硬體裝置發給CPU的訊號,要求CPU暫時先放下目前正在處理的工作,將工作的優先權暫時先讓給此發送訊號的硬體裝置,如Touch panel, keyboard, audio的I/O處理... 等等相關硬體裝置,都是透過IRQ來對CPU發出中斷請求。

2.何謂ISR:
ISR即所謂的中斷服務常式(Interrupt Service Routine),指用來回應硬體裝置發出IRQ的軟體常式,屬於OAL層,主要的工作為判斷硬體發生中斷的原因,並回傳一特定的Interrupt ID(SYSINTR)給Kernel,Kernel則會喚醒IST對中斷做進ㄧ步的處理。

3.何謂Interrupt ID:
Interrupt ID即所謂邏輯中斷識別碼(Interrupt Identifier),每個都是獨一無二的值,代表著某個硬體裝置發出的邏輯中斷要求。藉由Interrupt ID,kernel可以表示是否該處理可以完成,或是需要IST (Interrupt Service Threads)進ㄧ步處理該中斷請求。

4.何謂IST:

•Created by a device driver
•IST is a thread that does most of the interrupt processing
•IST performs necessary I/O operations in the device to collect the data and process it
•IST must associate an event object with an interrupt identifier by InterruptInitialize
•IST can boost themselves to a higher priority by calling CeSetThreadPriority


interrupt step flow:




2007年6月24日 星期日

Handfree下的語音導航

目前在研究Handfree下語音導航的可行性,原因是因為當在開車時,別人打電話進來後,除了與別人通話的聲音,也希望可以聽到語音導航的聲音,才不會因為在與人通話時,迷失了導航的方向,現在經由實際測試後是可行的!

但是可能會因此出現一些小bug,目前還在進行測試中....


在通話時同時又要與語音導航的困難點在於:

1.要同時打通兩條audio path

2.要同時從同ㄧ個地方輸出而且彼此訊號不能互相干擾

這兩條path分別如下:

1.Linein->Mic Volume->Headphone Mixer->OUT2
Linein輸入為Differential訊號,輸出也是Differential訊號

2.CPU->AC97->DAC->Speaker Mixer->Record Select->Headphone Mixer->OUT2
CPU輸出的聲音訊號無法得知,但輸出必須為Differential訊號

由於兩條path會經過同ㄧ個Mixer,然而訊號型態卻不ㄧ致,所以有可能會導致輸出訊號失真的情況。

Mixer即所謂的混音器,它可以將多個音源輸入訊號混合在一起,再作輸出,如下圖所示




待續中....

2007年6月23日 星期六

音訊處理與辨識

Audio Signal Processing and Recognition

以下轉貼的網址是有關音訊處理的網路教材
http://neural.cs.nthu.edu.tw/jang/books/audioSignalProcessing/

關於聲音是如何產生的、高低音如何區分、或要是如何做作語音辨識....等等相關知識理論
都有詳盡的敘述,有興趣的可以參考看看囉!!

2007年6月3日 星期日

總諧波失真: THD (Total Harmonic Distortion)

轉貼http://www.csie.nctu.edu.tw/~cckuo/public/tutorials/RMAA%20tutorial/main.html的文章


Total Harmonic Distortion,簡稱 THD。在講解之前,先來瞭解 Harmonic Distortion,也就是諧波失真。諧波失真用來表示檢測非線性失真(Nonlinear Distortion)的結果,非線性失真的定義是輸入訊號經過處理後,輸出時所產生的錯誤部分,這個錯誤部分與原本的輸入訊號無關,通常會在輸入訊號以外的頻率產生其他錯誤訊號。總諧波失真則是用來測試每一個從原始訊號產生出來的新頻率,也就是剛才定義的非線性失真,這些屬於非線性失真的頻率就稱為諧波(harmonics),而且這些諧波的產生位置是原始訊號頻率的整數倍位置,例如 1000Hz 的諧波就是 2kHz、3kHz、4kHz 等。測試 THD 時,是發出 1000Hz 的聲音來檢測,所以圖形中在 1000Hz 的位置會有峰波,我們要觀察的是 1000Hz 右邊產生出來的諧波多寡。這一個值越小越好。 在真空管的機器上,THD 通常相當的多,但是這卻讓聲音產生溫暖和諧的感覺,不過一般的電晶體裝置,例如解碼器、音效卡,其上的奇次諧波(以 1000Hz 來說,3k、5k、7k 就是它的奇次諧波)不會讓聲音變好聽,所以其 THD 值還是要越低越好,通常高品質的裝置都會低於 0.002%。



2007年5月8日 星期二

Audio Path 示意圖

轉貼至9712 spec:

2007年4月14日 星期六

設定Audio Path相關注意事項

在設定Audio Path時,需考慮到比較重要的地方如下:

1.音源輸入與輸出訊號的種類:

目前案子常見的音源輸入訊號為single-end或differential,所以針對不同的輸入訊號,設定Audio Path所需注意的地方也不同:

single-end:

如輸入訊號為single-end,則處理方式比較單純,可以依輸出訊號的不同來做相對應的處理,當輸出訊號同樣為single-end時,只要將輸入訊號的Audio Path設定為直接進直接出就好了,ㄧ般常用於耳機的輸出。


但是當輸出訊號為differential時,由於左右聲道輸入同樣為single-end的訊號,所以必須將其中ㄧ邊的訊號作反向的動作,如下圖所示,只要有通過Audio Path中的反向器(如紅色框框),即可做訊號反向的動作。以下圖為例,將左聲道訊號作反向,則左右聲道輸出的訊號為ㄧ正ㄧ反,輸出訊號即為differential。




differential:

如輸入訊號為differential,設定Audio Path時須特別注意,因為Audio Path都會經過Mixer,而Mixer可將多個音源訊號mix在一起,但differential訊號為ㄧ正ㄧ反,當differential訊號進入同ㄧ個Mixer時,會將ㄧ正ㄧ反的訊號mix在一起,導致兩訊號互相抵消,所以在經過Mixer後,differential訊號就會因此而消失不見,如9712 Audio Path中兩個單一Mixer,分別為Speaker Mixer與Phone Mixer,如下圖所示。




此兩Mixer都為單一Mixer,所以在設定Audio Path時必須特別注意,differential訊號是不能進入此兩個Mixer的,唯一可以進入的就是Headphone Mixer,因為此Mixer左右聲道有個別的Mixer,因此不會對differential訊號作抵消。

輸入訊號為differential,但輸出訊號卻為single-end時,則必須透過Inverter將ㄧ邊訊號反向回來,這樣兩邊訊號才會同相位,輸出才能轉換為single-end。

如欲輸出的訊號為differential,則將Audio Path設為直接進直接出即可,輸出即為differential。

2007年4月7日 星期六

Audio Path的設定(錄/放音)

9712基本錄放音的Audio Path設定:

放音Audio Path:

CPU->AC97->DAC->Speaker Mixer->OUT2


CPU將聲音資料透過AC97傳輸介面,將資料傳送給Audio Codec xx9712,進入9712後,會透過內部的數位類比轉換器將聲音訊號由數位轉換成類比訊號,其中在DAC有一組Amplifier(18h)可調整聲音的GAIN值,透過喇叭混音器即可將左聲道與右聲道mix在一起。

9712內建BTL音頻放大器,所謂BTL,即可將原本single-end(mono)的訊號放大為兩倍,其作法為將左右聲道其中ㄧ組訊號反向,輸出的訊號變成ㄧ正ㄧ反,即所謂的differential訊號,最後再將兩訊號作相減的動作,即可將訊號放大為兩倍。




而在9712裡,左聲道(LOUT2)輸出前有即一組反向器可將訊號作反向的動作,在訊號輸出之前,還有一組Amplifier(02h)可以調整輸出聲音的gain值,因此放音路徑總共有兩組Ampilifier可供調整聲音大小。

放音audio path regisiter設定程式碼:

Audio Path可參照spec page14

WriteAC97Codec(register,設定值);

WriteAC97Codec(0x18,0xa808);
->允許聲音訊號只能進入Speaker Mixer,並將DAC Volume設定為0db (0db為預設值)








WriteAC97Codec(0x02,0x40);
->將左聲道訊號相位反向,並將輸出gain值設定為0db




ㄧ般而言,不管聲音訊號進入哪個Mixer,最好將進入其他的Mixer的路徑關掉,以防止訊號互相干擾的問題。

錄音Audio Path:

(MIC1 or MIC2)->ADC->(ALC)->AC97->CPU

9712可以提供兩個Mic輸入點(0eh),ㄧ般而言單獨一個Mic輸入音源都是mono ,但是如果兩個Mic輸入點分成左右聲道輸入音源,則音源為stereo,而ADC主要是把從Mic輸入的類比訊號轉換成給CPU的數位訊號,這條path會經過兩個Ampilifer(1ch/1ah),可調整錄音的gain值,至於ALC的主要功用為抑制輸入過大的音源訊號,而且可以把過大的音源訊號平均掉,可以視情況使用,最後音源訊號會透過AC97傳輸介面傳送給CPU。

錄音audio path regisiter設定程式碼:



WriteAC97Codec(0x0e,0x0);
->選擇Mic1作為音源訊號輸入點




WriteAC97Codec(0x1a,0x4000);
->將錄音的訊號boost 20db的gain值




WriteAC97Codec(0x1c,0x0);
->將ADC的Record gain調為0db


9712的MICBIAS PIN腳可提供ㄧ組電壓供MIC使用,並且可由韌體去控制電壓是否開啟,位址為24h,電壓大小也可作調整,位址為5Ch。

2007年3月15日 星期四

音源訊號的類型與差異

1.Mono單聲道

意指左右聲道中的訊號資料內容是一樣的,所以左右聲道聽到的聲音都是ㄧ樣的

2.differential訊號

意指左右聲道的訊號資料內容是一樣,但其左右聲道的訊號相位是相反的,即可稱為differential訊號

3.stereo立體聲

意指左右聲道的訊號資料內容是不一樣的,譬如說左耳和右耳所聽到的聲音,聲音的遠近與方向是有差別的,所以聲音聽起來才會有立體和空間的感覺

2007年3月14日 星期三

我開始接觸AUDIO CODEC的流程

剛開始接觸 audio codec的流程:
1.先讀 wm9712的spec
2.從修改QC code開始,先去調整register的value,目的是修改喇叭和耳機輸出音量的大小
3.開始去了解 audio QC code的流程
4.當QC code還沒了解完時,案子就來了!!><


設audio path主要的重要工具(在spec裡):
1.Audio path路徑圖:
在路徑圖裡面,標榜只要你畫的通的path就ㄧ定會通,當然出來訊號的音質好不好那就不ㄧ定了 上面所說的可是FAE有背書過的,不是我說滴喔!! 不過實際情況還須考量到訊號來源的問題就是了

2.Register 列表:
要查看要設的Register Value很方便,如果要看詳細一點的設定,再去翻spec就行了

大致上先這樣,以後會陸續加心得進來囉!!