設定影像輸入格式:
將影像輸入格式設定為CVBS,也就是ㄧ般的AV端子
設定影像輸出格式:
由於chip有support ITU-R BT656 Embedded Syncs 與 YCbCr 4:2:2 Discreate sync
Embedded Syncs:即表示將hsync與vsync訊號的資料包在data封包裡面傳送
Discreate sync:是指hsync與vsync訊號是個別傳送的,沒有包在資料裡面
由於cpu只支援hsync與vsync訊號個別傳送,所以必須將Video Output的輸出格式設為Discreate sync。
設定符合Chip端輸出的data順序:
由於我們選擇的chip輸出format是YCbCr 4:2:2,其中Y代表亮度、Cb代表藍色色度、Cr代表紅色
色度,而CHIP所設定的data傳送順序如下圖所示:
所以在CPU端也必須設定CbYCrY順序的動作,色彩才會與chip輸出data相符合
在Chip Init加入Chip Reset:
// VEDIO_RESET Pull Low //p13
PIO_OUTPUT_ZERO (GPIO, GPIO_GROUP(3), GPIO_INDEX(11)); PIO_OUTPUT_ENABLE (GPIO, GPIO_GROUP(3), GPIO_INDEX(11));
msWait(100);
// VEDIO_RESET Pull High //p13
IOW_REG_OR(ULONG, &(v_pGpioRegs->gpio[3].paden), GPIO11);
PIO_OUTPUT_ONE (GPIO, GPIO_GROUP(3), GPIO_INDEX(11));
PIO_OUTPUT_ENABLE (GPIO, GPIO_GROUP(3), GPIO_INDEX(11));
將16bit強制轉換成8bit:
由於driver的架構是以16bit為設計基準,然而VIP chip只有Support到8bit,故必須將將16bit強制轉換成8bit
Scale:
由於實際影像大小為720*240,但是我們實際要輸出的LCD panel只有320X240,故需做影像壓縮大小的動作,這樣的動作會透過LookUpTable來實現,也就是將實際影像大小建構在LookUpTable中,再依我們要壓縮的比例大小至table表裡,等比例的每隔幾個pixel取ㄧ次,取出實際輸出的影像大小。
16bit與8bit處理上的差異:
由於ㄧ個pixel大小為2 bytes所組成,所以以16bit的driver架構,pixel CLK為13.5MHZ,所以ㄧ次可以傳送ㄧ個Pixel。所以如果以8bit的架構,pixel CLK就必須變成27MHZ
影像重疊的處理:
由於倒車影像需要倒車警示線,所以需要在倒車影像上再新增一圖層用來顯示倒車警示線,
在LCD driver有三個圖層可供使用,ㄧ個是最底層SCN,在這邊將這層拿來顯示我們的倒車影像
而第一層OSD1,則是拿來顯示警示線,另ㄧ層OSD2則尚未使用到,如下圖所示
在最後LCD display輸出時就會將三的圖層mix在一起在輸出
在driver還需要將SCN層與OSD層的framebuffer作個別指定的動作,以免發生影像與警示線顯示在同ㄧ圖層的情況,由於OSD圖層式堆疊在SCN層上面,所以會將SCN圖層的影像蓋過去,導致只能看到OSD圖層,在這種情況下,就必須將OSD圖層作透明化的處理,再OSD圖層可指定對特定顏色作透明化以及加強或減弱透明度的效果,經過透明化後,就可以看到SCN層的影像及OSD層的警示線了
設定特定顏色透明化:
dwColorKeyHigh =0x13effe;//設定白色透明化
dwColorKeyLow = 0x13effe;//設定白色透明化
設定OSD層透明化的程度:
WriteLcdRegisterValue(OSDALPHA, 0x002f003a);//set Alpha Value
OSD影像偏移校正問題:
在ㄧ開始時,我們曾經發生在OSD層顯示影像時,會發生整個影像向右偏移的請況,所以影像左邊會跑出黑色的色塊,而且影像也無法全部顯示,影像右邊ㄧ塊也會不見,原因是因為要去設定OSD圖層的起始與結束位置,在platform.reg裡作設定,當設定的位置跟底層SCN層的位置是ㄧ致時,就不會有偏移的情形產生了
"regOSD_HSTART"=dword:22
"regOSD_VSTART"=dword:11
"regOSD_HEND"=dword:161
"regOSD_VEND"=dword:100
OSD層資料搬移(16bits轉32bits)
由於為了減少系統負荷量,原本資料搬移的型別是用WORD,也就是每次搬移16bits,現在改用int,一次搬移32bits,搬移時寬度必須每次都加2,因為寬度是320高度240,而原本每次是搬移1個pixel,所以總共要搬移320x240次,現在變成每次搬移2個pixel,所以現在總共只要搬移320x160次即可
2008年3月5日 星期三
2008年3月3日 星期一
[轉貼]克服平面電視中的音訊挑戰
轉貼至http://www.eettaiwan.com/ART_8800507035_617739_TA_660af9fb.HTM
試圖讓平面電視重現高品質音訊的設計師們正面臨著諸多挑戰,不過,數位音訊處理器和放大器可以用來彌補這些問題,並進一步改善和強化音訊體驗。
從採用CRT顯示器的標準解析度類比電視,到採用LCD和電漿顯示器的高解析度數位電視,整個電視產業正在快速轉變。雖然畫面品質獲得了大幅提升,但仍有多種因素使電視製造商很難提高甚至讓用戶維持觀看CRT電視時所體驗的音訊品質。這些因素包括:
用戶希望使用更輕薄的電視,但機箱厚度的縮小迫使製造商使用更小的揚聲器,降低了低頻時的音訊回應。
為減少電視外框尺寸,有時會將揚聲器置於螢幕背後,聲音透過很小的聲學喇叭發送,容易引起調諧共振。
與CRT電視相較,更薄的機箱較不結實,容易引起機械共振。
大多數平面電視越來越寬,也迫使製造商將揚聲器安裝在電視下方而非兩邊,影響了立體聲的分離度。
平面電視螢幕尺寸越大,意味著電視離觀眾越遠,減少了立體聲分離度。
在此同時,消費者對電視聲音的期望值越來越高,這是因為:
畫面品質的提高增加了對音訊品質的期望值。隨著越來越多的用戶擁有可重現劇院視覺品質的裝置,他們同樣會希望感受到劇院級的音訊品質。
具有多通道數位音訊(如杜比、DTS等)的DVD和數位電視節目可以提供更高品質的音訊內容。數位音訊處理和放大可以用來彌補平面電視帶來的這些問題,並提供高品質的音訊體驗。
除了能彌補這些問題外,數位音訊處理還能透過重建家庭劇院系統中常見的中央聲道和後置揚聲器感覺來提高音訊品質,增強對話解析度,並提高深夜看電視在低音量時的聲音品質。
數位電視中的音訊通道
ATSC數位電視廣播的音訊與視訊一起嵌入在MPEG傳送資料流程中。數位電視中的MPEG解碼器同時解碼視訊和音訊(通常是杜比數位),並提供數位音訊輸出(通常為I2S)和視訊輸出。
在簡單的配置中,音訊訊號可能只經過音量控制後就被發送到音訊DAC,然後輸出到放大器(圖1)。在實際應用中會增加一些額外的音訊處理電路來改善音訊品質,並使之與視訊同步(圖2)。
圖1:在簡單配置中,音訊訊號可能只經過音量控制後就被發送到音訊DAC,然後輸出到放大器。
在從類比電視向數位電視轉變的過程中,電視必須能夠同時處理類比和數位音訊。類比電視訊號中的音訊要使用一個子載頻,而類比調諧器通常有一個需要被解調的聲音中頻(SIF)輸出。DTV平台通常有一個用於解調來自類比調諧器SIF輸出的類比輸入端和一個來自解碼器的數位輸入端,後面的解碼器用於處理MPEG資料流程中的視訊和數位音訊(圖2)。
圖2:在實際應用中會增加一些額外的音訊處理電路來改善音訊品質,並使之與視訊同步。
類比電視接收電路即使在類比廣播關閉後可能還是需要的,因為要相容於VCR(錄影機)、視訊遊戲以及所有仍輸出射頻調變後訊號的音訊/視訊週邊設備。
口唇同步延遲
由於用於顯示的視訊訊號處理越來越複雜,輸入和顯示器之間的視訊延遲也越來越長。這就要求電視能延遲音訊訊號,使之與視訊訊號保持同步。
有三種方法可實現口唇同步延遲:1. 利用音訊處理器中的口唇同步延遲記憶體;2. 利用與音訊處理器連接的外部口唇同步延遲記憶體;3. 將音訊環回到視訊處理器,利用視訊器的DRAM實現音訊延遲。在音訊處理器中實現口唇同步延遲是最簡單的方法,但它會增加音訊處理器的成本,且缺乏靈活性。
與整合式口唇同步記憶體相較,使用專門的外部記憶體實現口唇同步延遲成本增加得的更多,但它也很簡單,並更加靈活。使用視訊處理器的DRAM是成本最低的一種方法,但它也增加了系統的複雜性。
繪圖均衡
頻率回應校正的第一步是繪圖均衡。繪圖均衡使用帶通濾波器來提升或降低特定頻段的增益。這是一個能讓用戶良好控制頻率回應的好方法,因為他們非常熟悉這種處理介面。
繪圖均衡可用來彌補由於小型揚聲器、機箱諧振等引起的音訊問題,但它不是最好的方法,因為頻段的寬度和頻率是固定的。
圖3:採用參數化均衡的LCD電視音訊系統具有更佳的頻率回應。
參數化均衡
參數濾波器也可以用來調整電視放大器的回應曲線。在修正由於小型揚聲器和超薄機箱等引起的不良頻率回應和諧振問題方面,參數濾波器優於繪圖等化器,因為參數濾波器可透過編程來調整總濾波器回應、中心頻率和Q值。
雙二階濾波器常用於參數化均衡。數位雙二階濾波器也具有很大的靈活性,因為它有兩個極點和兩個零點可用來調整濾波器回應,因而形成低通、高通或帶通甚至陷波濾波器。雙二階濾波器中的極點和零點位置可透過調整濾波器係數來改變。
提高立體聲分離度
隨著數位電視長寬比的增加,立體聲分離度也應越來越大,但越來越多的電視製造商將揚聲器放在顯示器下方,而不是兩側,這是為了減少電視的整體寬度。而將揚聲器放在顯示器下方將減少立體聲的分離度,而且還會使聲音中心從顯示器中心移到顯示器下方。
SRS Labs、BBE Sound和QSound Labs等公司的演算法可用來增加音訊聲像的尺寸,提高可感知的低音性能,並使兩個揚聲器產生中置和後置通道揚聲器的效果。這些演算法可以改善電視的可感知音訊品質,並產生更像是多通道家庭劇院系統的聆聽系統。
圖4顯示了BBE ViVA如何改善音訊聲像(BBE Sound公司)。
圖4:BBE VIVA是一種雙揚聲器的3D處理,其中央聲道是虛擬的。
動態範圍最佳化
小型電視揚聲器很難重現數位音訊軌跡中包含的全部動態範圍。當你在晚上想避免竊竊私語和戰爭場面之間音量的極大差異時,擴展動態範圍也很困難。為了最佳化目前節目的整體音量,音訊處理器可提供從寬頻帶到多頻帶等多種動態範圍壓縮選項。
更高的功率電平
採用大顯示器的平面電視觀看距離通常要大於CRT電視,因此需要更大的音訊功率。另外,平面電視缺少AB類放大器需要的散熱空間。這兩大因素使得數位音訊放大器成為平面電視的更好選擇。
共有兩種基本的數位音訊放大器類型。傳統的D類放大器接收類比輸入訊號,利用類比電路產生脈寬調變開關輸出。傳統的D類放大器非常適合具有類比訊號源的產品使用,但數位D類放大器更適合具有數位音訊源的產品(如數位電視)使用。
數位D類放大器接受數位音訊輸入,利用數位電路產生開關輸出,因此在音訊處理器輸出端無需再使用DAC。數位放大器具有很高的訊息噪音比和動態範圍,因為訊號路徑已經完全數位化。另外,如果需要額外的處理能力,還可以在放大器本身中整合音訊處理功能。
作者:Vianney Taufour
音訊系統架構師
John Widder
市場開發經理
意法半導體公司
試圖讓平面電視重現高品質音訊的設計師們正面臨著諸多挑戰,不過,數位音訊處理器和放大器可以用來彌補這些問題,並進一步改善和強化音訊體驗。
從採用CRT顯示器的標準解析度類比電視,到採用LCD和電漿顯示器的高解析度數位電視,整個電視產業正在快速轉變。雖然畫面品質獲得了大幅提升,但仍有多種因素使電視製造商很難提高甚至讓用戶維持觀看CRT電視時所體驗的音訊品質。這些因素包括:
用戶希望使用更輕薄的電視,但機箱厚度的縮小迫使製造商使用更小的揚聲器,降低了低頻時的音訊回應。
為減少電視外框尺寸,有時會將揚聲器置於螢幕背後,聲音透過很小的聲學喇叭發送,容易引起調諧共振。
與CRT電視相較,更薄的機箱較不結實,容易引起機械共振。
大多數平面電視越來越寬,也迫使製造商將揚聲器安裝在電視下方而非兩邊,影響了立體聲的分離度。
平面電視螢幕尺寸越大,意味著電視離觀眾越遠,減少了立體聲分離度。
在此同時,消費者對電視聲音的期望值越來越高,這是因為:
畫面品質的提高增加了對音訊品質的期望值。隨著越來越多的用戶擁有可重現劇院視覺品質的裝置,他們同樣會希望感受到劇院級的音訊品質。
具有多通道數位音訊(如杜比、DTS等)的DVD和數位電視節目可以提供更高品質的音訊內容。數位音訊處理和放大可以用來彌補平面電視帶來的這些問題,並提供高品質的音訊體驗。
除了能彌補這些問題外,數位音訊處理還能透過重建家庭劇院系統中常見的中央聲道和後置揚聲器感覺來提高音訊品質,增強對話解析度,並提高深夜看電視在低音量時的聲音品質。
數位電視中的音訊通道
ATSC數位電視廣播的音訊與視訊一起嵌入在MPEG傳送資料流程中。數位電視中的MPEG解碼器同時解碼視訊和音訊(通常是杜比數位),並提供數位音訊輸出(通常為I2S)和視訊輸出。
在簡單的配置中,音訊訊號可能只經過音量控制後就被發送到音訊DAC,然後輸出到放大器(圖1)。在實際應用中會增加一些額外的音訊處理電路來改善音訊品質,並使之與視訊同步(圖2)。
圖1:在簡單配置中,音訊訊號可能只經過音量控制後就被發送到音訊DAC,然後輸出到放大器。
在從類比電視向數位電視轉變的過程中,電視必須能夠同時處理類比和數位音訊。類比電視訊號中的音訊要使用一個子載頻,而類比調諧器通常有一個需要被解調的聲音中頻(SIF)輸出。DTV平台通常有一個用於解調來自類比調諧器SIF輸出的類比輸入端和一個來自解碼器的數位輸入端,後面的解碼器用於處理MPEG資料流程中的視訊和數位音訊(圖2)。
圖2:在實際應用中會增加一些額外的音訊處理電路來改善音訊品質,並使之與視訊同步。
類比電視接收電路即使在類比廣播關閉後可能還是需要的,因為要相容於VCR(錄影機)、視訊遊戲以及所有仍輸出射頻調變後訊號的音訊/視訊週邊設備。
口唇同步延遲
由於用於顯示的視訊訊號處理越來越複雜,輸入和顯示器之間的視訊延遲也越來越長。這就要求電視能延遲音訊訊號,使之與視訊訊號保持同步。
有三種方法可實現口唇同步延遲:1. 利用音訊處理器中的口唇同步延遲記憶體;2. 利用與音訊處理器連接的外部口唇同步延遲記憶體;3. 將音訊環回到視訊處理器,利用視訊器的DRAM實現音訊延遲。在音訊處理器中實現口唇同步延遲是最簡單的方法,但它會增加音訊處理器的成本,且缺乏靈活性。
與整合式口唇同步記憶體相較,使用專門的外部記憶體實現口唇同步延遲成本增加得的更多,但它也很簡單,並更加靈活。使用視訊處理器的DRAM是成本最低的一種方法,但它也增加了系統的複雜性。
繪圖均衡
頻率回應校正的第一步是繪圖均衡。繪圖均衡使用帶通濾波器來提升或降低特定頻段的增益。這是一個能讓用戶良好控制頻率回應的好方法,因為他們非常熟悉這種處理介面。
繪圖均衡可用來彌補由於小型揚聲器、機箱諧振等引起的音訊問題,但它不是最好的方法,因為頻段的寬度和頻率是固定的。
圖3:採用參數化均衡的LCD電視音訊系統具有更佳的頻率回應。
參數化均衡
參數濾波器也可以用來調整電視放大器的回應曲線。在修正由於小型揚聲器和超薄機箱等引起的不良頻率回應和諧振問題方面,參數濾波器優於繪圖等化器,因為參數濾波器可透過編程來調整總濾波器回應、中心頻率和Q值。
雙二階濾波器常用於參數化均衡。數位雙二階濾波器也具有很大的靈活性,因為它有兩個極點和兩個零點可用來調整濾波器回應,因而形成低通、高通或帶通甚至陷波濾波器。雙二階濾波器中的極點和零點位置可透過調整濾波器係數來改變。
提高立體聲分離度
隨著數位電視長寬比的增加,立體聲分離度也應越來越大,但越來越多的電視製造商將揚聲器放在顯示器下方,而不是兩側,這是為了減少電視的整體寬度。而將揚聲器放在顯示器下方將減少立體聲的分離度,而且還會使聲音中心從顯示器中心移到顯示器下方。
SRS Labs、BBE Sound和QSound Labs等公司的演算法可用來增加音訊聲像的尺寸,提高可感知的低音性能,並使兩個揚聲器產生中置和後置通道揚聲器的效果。這些演算法可以改善電視的可感知音訊品質,並產生更像是多通道家庭劇院系統的聆聽系統。
圖4顯示了BBE ViVA如何改善音訊聲像(BBE Sound公司)。
圖4:BBE VIVA是一種雙揚聲器的3D處理,其中央聲道是虛擬的。
動態範圍最佳化
小型電視揚聲器很難重現數位音訊軌跡中包含的全部動態範圍。當你在晚上想避免竊竊私語和戰爭場面之間音量的極大差異時,擴展動態範圍也很困難。為了最佳化目前節目的整體音量,音訊處理器可提供從寬頻帶到多頻帶等多種動態範圍壓縮選項。
更高的功率電平
採用大顯示器的平面電視觀看距離通常要大於CRT電視,因此需要更大的音訊功率。另外,平面電視缺少AB類放大器需要的散熱空間。這兩大因素使得數位音訊放大器成為平面電視的更好選擇。
共有兩種基本的數位音訊放大器類型。傳統的D類放大器接收類比輸入訊號,利用類比電路產生脈寬調變開關輸出。傳統的D類放大器非常適合具有類比訊號源的產品使用,但數位D類放大器更適合具有數位音訊源的產品(如數位電視)使用。
數位D類放大器接受數位音訊輸入,利用數位電路產生開關輸出,因此在音訊處理器輸出端無需再使用DAC。數位放大器具有很高的訊息噪音比和動態範圍,因為訊號路徑已經完全數位化。另外,如果需要額外的處理能力,還可以在放大器本身中整合音訊處理功能。
作者:Vianney Taufour
音訊系統架構師
John Widder
市場開發經理
意法半導體公司
2008年2月20日 星期三
[轉貼]數位電視簡介
轉貼至http://www.dtvc.org.tw/2-1.htm的文章
關於無線數位電視簡介
數位與類比訊號簡述
1. 傳統一般家庭電視,我們稱它為類比電視 (Analog TV) ,畫面信號是屬連續性的變化,採用
NTSC 系統。
2. 數位電視則是將畫面信號經數位化處理後,變成一串數據資料,再經數位調變傳送到家。簡單
的說,數位廣播是從電視台的發射端到家庭的通道發生不一樣的傳送方式。包括:攝影機、錄
影機、傳輸通道‧‧‧都是數位化,包括空中的通道也是數位化。
3. 數位電視的成功,主因是視訊壓縮技術之進步。
4. 目前國際統一的壓縮標準是 MPEG-2 ,在傳統無線電視台 6M HZ 頻寬的電視頻道中,可傳送
1080 條水平掃描線的高畫質電視 (High-Definition TV) ,簡稱 HDTV 。它的畫面比傳統電
視 (525 條 ) 畫面細膩,色彩逼真,同時也提供身歷聲 ( 杜比 AC3) 高級音響效果。
無線數位電視傳輸標準
1. 美規 ATSC 8-VSB 用於 6MHz 電視頻道。
2. 歐規 DVB-T COFDM 用於 6/7/8 MHz 電視頻道,目前台灣採用的是歐規 DVB-T 6MHz 。
3. 日規 ISDB-T COFDM 用於 6MHz 電視頻道 ( 屬歐規改良型 ) 。
歐規( DVB-T )傳輸系統功能特色
1. 可以行動接收。
2. 可建立單頻網路( SFN ),解決收視不良地區,改善轉播站之頻譜分配。
3. 室內接收能力較佳。以前電波碰到牆壁會反射,且會產生許多干擾波,對主要訊號造成干擾,
以致無法收看,在歐規系統,干擾波可當主訊號使用,甚至有加分效果,將來在室內只要加裝
天線即可接收。台灣有線電視蓬勃發展的原因在於一般觀眾只會接收老三台,而不知如何接收
公視、民視;公寓天線老舊沒有更新,加上大樓阻擋,及原有社區天線的被破壞,因此無
線數位電視推出的理念著重在容易接收。
4. 抗多路徑(Multipath )干擾能力強,也就是來自四面八方的訊號,透過偵測,只要在可允許
範圍內,干擾源皆可當做接收的訊號。
5. 與衛星、有線系統相容性佳。
6. 發射與接收端各種相關配套系統完備,產品技術穩定成熟。
7. 除美國、加拿大、韓國外,採用國家佔絕對多數。
電視數位化後之效益
1. 多頻道 現有 6 兆赫 (MHz) 的電視頻道中,可播出 4-6 個標準畫質 (SDTV) 節目,或播 1 個高
畫質 (HDTV)節目。
2. 提升服務品質 改善收視區訊號水準,提升影像畫質,增加音響與視訊服務。
3. 多媒體服務 整合通信與電腦,開闢多元化的業務與商機。觀眾可透過電話與數位電視相互溝
通,達成如購物、選片等雙向互動功能,也可接網際網路等數位裝備。
4. 提高頻譜使用效率 傳輸數位化後,頻譜效率提高。新建數位台使用 UHF 頻道,釋出現有
VHF 頻道,供 給公眾通信使用,充分有效運用頻譜資源。
數位化節目製播過程
數位電視傳輸方式
數位電視示意圖
無線數位電視平台
無線數位電視節目播送
無線數位電視行動多媒體接收系統
關於無線數位電視簡介
數位與類比訊號簡述
1. 傳統一般家庭電視,我們稱它為類比電視 (Analog TV) ,畫面信號是屬連續性的變化,採用
NTSC 系統。
2. 數位電視則是將畫面信號經數位化處理後,變成一串數據資料,再經數位調變傳送到家。簡單
的說,數位廣播是從電視台的發射端到家庭的通道發生不一樣的傳送方式。包括:攝影機、錄
影機、傳輸通道‧‧‧都是數位化,包括空中的通道也是數位化。
3. 數位電視的成功,主因是視訊壓縮技術之進步。
4. 目前國際統一的壓縮標準是 MPEG-2 ,在傳統無線電視台 6M HZ 頻寬的電視頻道中,可傳送
1080 條水平掃描線的高畫質電視 (High-Definition TV) ,簡稱 HDTV 。它的畫面比傳統電
視 (525 條 ) 畫面細膩,色彩逼真,同時也提供身歷聲 ( 杜比 AC3) 高級音響效果。
無線數位電視傳輸標準
1. 美規 ATSC 8-VSB 用於 6MHz 電視頻道。
2. 歐規 DVB-T COFDM 用於 6/7/8 MHz 電視頻道,目前台灣採用的是歐規 DVB-T 6MHz 。
3. 日規 ISDB-T COFDM 用於 6MHz 電視頻道 ( 屬歐規改良型 ) 。
歐規( DVB-T )傳輸系統功能特色
1. 可以行動接收。
2. 可建立單頻網路( SFN ),解決收視不良地區,改善轉播站之頻譜分配。
3. 室內接收能力較佳。以前電波碰到牆壁會反射,且會產生許多干擾波,對主要訊號造成干擾,
以致無法收看,在歐規系統,干擾波可當主訊號使用,甚至有加分效果,將來在室內只要加裝
天線即可接收。台灣有線電視蓬勃發展的原因在於一般觀眾只會接收老三台,而不知如何接收
公視、民視;公寓天線老舊沒有更新,加上大樓阻擋,及原有社區天線的被破壞,因此無
線數位電視推出的理念著重在容易接收。
4. 抗多路徑(Multipath )干擾能力強,也就是來自四面八方的訊號,透過偵測,只要在可允許
範圍內,干擾源皆可當做接收的訊號。
5. 與衛星、有線系統相容性佳。
6. 發射與接收端各種相關配套系統完備,產品技術穩定成熟。
7. 除美國、加拿大、韓國外,採用國家佔絕對多數。
電視數位化後之效益
1. 多頻道 現有 6 兆赫 (MHz) 的電視頻道中,可播出 4-6 個標準畫質 (SDTV) 節目,或播 1 個高
畫質 (HDTV)節目。
2. 提升服務品質 改善收視區訊號水準,提升影像畫質,增加音響與視訊服務。
3. 多媒體服務 整合通信與電腦,開闢多元化的業務與商機。觀眾可透過電話與數位電視相互溝
通,達成如購物、選片等雙向互動功能,也可接網際網路等數位裝備。
4. 提高頻譜使用效率 傳輸數位化後,頻譜效率提高。新建數位台使用 UHF 頻道,釋出現有
VHF 頻道,供 給公眾通信使用,充分有效運用頻譜資源。
數位化節目製播過程
數位電視傳輸方式
數位電視示意圖
無線數位電視平台
無線數位電視節目播送
無線數位電視行動多媒體接收系統
2007年12月24日 星期一
暗藏於晶片間的數位「聲道」玄機:I2S介面
轉載至http://tech.digitimes.com.tw/print.aspx?zNotesDocId=2D8D85C2E646BB564825700000435D7D
與I2C字樣與含意相近的,I2S的全稱是Inter-IC Sound,意指在晶片間傳遞的音源,至於會有哪些晶片需要相互傳遞數位音源,這包括了數位信號處理器(DSP)、類比數位轉換晶片(ADC)、數位類比轉換晶片(DAC)、數位過濾晶片(Digital Filter)、CD更錯晶片(Error Correction)、數位錄音晶片(Digital Recording)、數位電視音源晶片(Digital TV)、數位錄音帶(Digital Audio Tape)等,另外全球定位系統晶片(GPS)、數位廣播晶片(DAB)等也經常用上,或者SPDIF與I2S兩種介面都提供,前者適合外傳、外接,後者方便數位音源在機內進行再傳遞、再轉換、再處理。
簡單而言I2S有3條線路,稱呼與功用大體如下:
■SCK(continuous Serial Clock):串列傳輸的時脈線,專精、獨立的時脈傳遞。
■SD(Serial Data):串列傳輸的資料線,傳遞兩個聲道的數位音源資訊。
■WS(Word Select):字元選擇線,字元(Word)在此所指即是音源聲道(Channel)。
這3條線路的邏輯電壓準位等相關要求,全然比照一般TTL標準,即0V∼0.8V為Lo、2.4∼5.0V為Hi,就連源出(Source)與汲入(Sink)的電流值標準也類同於TTL,事實上I2S本就發創於標準TTL仍相當盛行的80年代,因此電氣特性的表現過於「基本」自然不足為怪。
接著我們要說明I2S的連接,一般而言I2S是一對一的連接,即音源發送端與音源接收端直接相連,且SD的資料傳輸永為單一方向不會改變,並非是雙向式傳輸。進一步的,到底由誰來發送SCK時脈呢?無論發送端或接收端都可擔任,不過必須在設計之初就決定由哪端發出,且在運作過程中無法再行變換。
同樣的,WS聲道控制線路也要一起頭就決定由誰來輸出,當WS輸出0時表示SD將要輸出的是Channel 1(或稱Channel A)的左聲道音源,反之輸出1則是Channel 2(或稱Channel B)的右聲道音源。簡單來說,3線都是單方單向的傳遞線路。
雖然在I2S介面上有收有發,但誰是I2S介面的主控者(Master)、受控者(Slave)呢?這取決於線路的配置法,凡是對外輸出SCK線路訊號的即是I2S的主控者,至於SD、WS在設計上可決定由主控端發送,也可決定由受控端發送,毫不影響主控、受控的角色。
另外也有一種比較特別的搭配組態,即是由一個超然中立的控制端來充當主控者,由它來廣播SCK時脈訊號,同時也由其來掌控及發送WS訊號。
附註:一般而言主控者選擇擔任發送端後就無法擔任接收端,或擔任接收端後就無法擔任接收端,不過若真的希望角色能互換,也是允許用軟體對接腳進行輸出入功用的再設定、轉換來實現。
▲圖說:誰負責SCK的對外發送,誰就是I2S介面中的主控者,無論發送器、接收器、控制器都可以是主控者。(圖片來源:Semiconductors.Philips.com)
刻意安排先行傳輸MSB的用意
接著我們要說明收端兩端如何傳遞SD資訊,此即是以SCK時脈為基準,當SCK由Lo轉成Hi(即上升緣觸發)時,發送端的SD資訊就會被接收端給閂鎖(Latch)。一旦Latch後,下一筆資料可選擇在任何時間進行變換,I2S對資料的變換時機沒有強制的要求。至於WS,一樣可在任何時間進行變化,但接收端的取樣與資訊認定一樣發生在上升緣觸發的時間點。
值得注意的是,WS的0、1狀態轉變時,同一上升緣的SD資訊依然是WS未轉態前的聲道資訊,確定WS狀態轉變後,下一個上升緣時SD線路才正式傳輸WS新指定聲道的音源資訊,畢竟接收端在接獲聲道變換的訊息後,需要一點時間進行內部邏輯機制的調整與準備,無法即時接收反應。
再來是壓軸部分:SD的數位音源傳輸,SD的串列傳輸順序是先傳遞最高位元(MSB,亦稱最高影響性位元),最後才傳遞LSB,或許有人認為這只是設定安排上的不同,應當也可以將順序反過來傳遞,但其實不然,以MSB為最優先傳送實有其充分理由。
I2S希望做到收發兩端不需任何的事先溝通協議就能正常進行傳遞,而所謂事先協議指的是讓兩端取得默契,如接下來的傳輸將是每聲道、每取樣多少位元解析度的資訊,是16-bit?20-bit?還是24-bit?
與I2C字樣與含意相近的,I2S的全稱是Inter-IC Sound,意指在晶片間傳遞的音源,至於會有哪些晶片需要相互傳遞數位音源,這包括了數位信號處理器(DSP)、類比數位轉換晶片(ADC)、數位類比轉換晶片(DAC)、數位過濾晶片(Digital Filter)、CD更錯晶片(Error Correction)、數位錄音晶片(Digital Recording)、數位電視音源晶片(Digital TV)、數位錄音帶(Digital Audio Tape)等,另外全球定位系統晶片(GPS)、數位廣播晶片(DAB)等也經常用上,或者SPDIF與I2S兩種介面都提供,前者適合外傳、外接,後者方便數位音源在機內進行再傳遞、再轉換、再處理。
簡單而言I2S有3條線路,稱呼與功用大體如下:
■SCK(continuous Serial Clock):串列傳輸的時脈線,專精、獨立的時脈傳遞。
■SD(Serial Data):串列傳輸的資料線,傳遞兩個聲道的數位音源資訊。
■WS(Word Select):字元選擇線,字元(Word)在此所指即是音源聲道(Channel)。
這3條線路的邏輯電壓準位等相關要求,全然比照一般TTL標準,即0V∼0.8V為Lo、2.4∼5.0V為Hi,就連源出(Source)與汲入(Sink)的電流值標準也類同於TTL,事實上I2S本就發創於標準TTL仍相當盛行的80年代,因此電氣特性的表現過於「基本」自然不足為怪。
接著我們要說明I2S的連接,一般而言I2S是一對一的連接,即音源發送端與音源接收端直接相連,且SD的資料傳輸永為單一方向不會改變,並非是雙向式傳輸。進一步的,到底由誰來發送SCK時脈呢?無論發送端或接收端都可擔任,不過必須在設計之初就決定由哪端發出,且在運作過程中無法再行變換。
同樣的,WS聲道控制線路也要一起頭就決定由誰來輸出,當WS輸出0時表示SD將要輸出的是Channel 1(或稱Channel A)的左聲道音源,反之輸出1則是Channel 2(或稱Channel B)的右聲道音源。簡單來說,3線都是單方單向的傳遞線路。
雖然在I2S介面上有收有發,但誰是I2S介面的主控者(Master)、受控者(Slave)呢?這取決於線路的配置法,凡是對外輸出SCK線路訊號的即是I2S的主控者,至於SD、WS在設計上可決定由主控端發送,也可決定由受控端發送,毫不影響主控、受控的角色。
另外也有一種比較特別的搭配組態,即是由一個超然中立的控制端來充當主控者,由它來廣播SCK時脈訊號,同時也由其來掌控及發送WS訊號。
附註:一般而言主控者選擇擔任發送端後就無法擔任接收端,或擔任接收端後就無法擔任接收端,不過若真的希望角色能互換,也是允許用軟體對接腳進行輸出入功用的再設定、轉換來實現。
▲圖說:誰負責SCK的對外發送,誰就是I2S介面中的主控者,無論發送器、接收器、控制器都可以是主控者。(圖片來源:Semiconductors.Philips.com)
刻意安排先行傳輸MSB的用意
接著我們要說明收端兩端如何傳遞SD資訊,此即是以SCK時脈為基準,當SCK由Lo轉成Hi(即上升緣觸發)時,發送端的SD資訊就會被接收端給閂鎖(Latch)。一旦Latch後,下一筆資料可選擇在任何時間進行變換,I2S對資料的變換時機沒有強制的要求。至於WS,一樣可在任何時間進行變化,但接收端的取樣與資訊認定一樣發生在上升緣觸發的時間點。
值得注意的是,WS的0、1狀態轉變時,同一上升緣的SD資訊依然是WS未轉態前的聲道資訊,確定WS狀態轉變後,下一個上升緣時SD線路才正式傳輸WS新指定聲道的音源資訊,畢竟接收端在接獲聲道變換的訊息後,需要一點時間進行內部邏輯機制的調整與準備,無法即時接收反應。
再來是壓軸部分:SD的數位音源傳輸,SD的串列傳輸順序是先傳遞最高位元(MSB,亦稱最高影響性位元),最後才傳遞LSB,或許有人認為這只是設定安排上的不同,應當也可以將順序反過來傳遞,但其實不然,以MSB為最優先傳送實有其充分理由。
I2S希望做到收發兩端不需任何的事先溝通協議就能正常進行傳遞,而所謂事先協議指的是讓兩端取得默契,如接下來的傳輸將是每聲道、每取樣多少位元解析度的資訊,是16-bit?20-bit?還是24-bit?
I2S之所以能不用事先溝通就可以直接傳送,就在於使用MSB先傳的特性,如果發送端是20-bit,接收端是更高解析度的24-bit,那麼傳送完20bits後的剩餘4bits可以由接收端自行補「0」,反過來說,若接收端只有16-bit,則傳送過來的20bits中,最後的4bits資訊可以直接丟捨忽略。同樣的道理並不限於上面所述的16-bit、20-bit、24-bit,只要有解析度位元數差距的情形都一律適用。
▲圖說:I2S在進行WS邏輯位準的改變後,SD便在下一個SCK時脈時開始傳輸另一聲道的數位音訊,並從MSB開始傳遞。(圖片來源:Semiconductors.Philips.com)
至於I2S可以含在多少音源資訊?以基本規範而言,一個時脈400nS,因此傳輸頻率為2.5MHz,等於可傳送2.5Mbps,如此約可傳遞24-bit解析度、48kHz取樣率的雙聲道音源,因為:
24bits x 48000Hz x 2Channel = 2304000bits/Sec = 2.304Mbps
2.5Mbps減去2.304Mbps後,只剩200kbps不到的傳輸頻寬,實在無法再傳遞什麼。不過,由於I2S在時序上的制訂都盡可能採行相對性、比例性的定義,以一個時脈週期為基準並稱為T,高低準位的時間最少須大於0.35T,延遲時間必須小於0.8T,上升時間必須大於0.15T等,這表示整個傳輸可以單純地透過時脈頻率拉升來加速資料傳量,不需要為提昇傳輸而有太多的環節顧慮。
附註:一般音樂CD的解析度為16-bit,取樣率為44.1kHz,但也可增至更優質的20-bit、24-bit,而專業的DAT其取樣率為48kHz,而DSR稍低,為32kHz。
▲圖說:I2S在進行WS邏輯位準的改變後,SD便在下一個SCK時脈時開始傳輸另一聲道的數位音訊,並從MSB開始傳遞。(圖片來源:Semiconductors.Philips.com)
至於I2S可以含在多少音源資訊?以基本規範而言,一個時脈400nS,因此傳輸頻率為2.5MHz,等於可傳送2.5Mbps,如此約可傳遞24-bit解析度、48kHz取樣率的雙聲道音源,因為:
24bits x 48000Hz x 2Channel = 2304000bits/Sec = 2.304Mbps
2.5Mbps減去2.304Mbps後,只剩200kbps不到的傳輸頻寬,實在無法再傳遞什麼。不過,由於I2S在時序上的制訂都盡可能採行相對性、比例性的定義,以一個時脈週期為基準並稱為T,高低準位的時間最少須大於0.35T,延遲時間必須小於0.8T,上升時間必須大於0.15T等,這表示整個傳輸可以單純地透過時脈頻率拉升來加速資料傳量,不需要為提昇傳輸而有太多的環節顧慮。
附註:一般音樂CD的解析度為16-bit,取樣率為44.1kHz,但也可增至更優質的20-bit、24-bit,而專業的DAT其取樣率為48kHz,而DSR稍低,為32kHz。
▲圖說:I2S介面對時序的規範要求都盡可能採行相對性、比例性的設計,以SCK的一個時脈週期為T,其餘相關要求都以T為基準比例。(圖片來源:Semiconductors.Philips.com)
結論
在今日大談5.1、6.1的多聲道時代,以及Intel提出解析度高達32-bit的高清晰度音效(HD Audio)的時代,各位可能會對筆者在此所談論的雙聲道、24-bit感到不耐,然各位仔細想,眼前可有解析度高達32-bit的錄音麥克風?即便有可有任何音樂內容是以32-bit取樣錄製?(18-bit已是極優)很明顯的,24-bit依舊是萬中挑一的嚴選,一般多為16-bit、20-bit,就連DVD-Audio、SACD等也僅在24-bit。
另外5.1、6.1的多聲道,也僅適合在打造家庭劇院,狹小、個人專用的書房空間並不合適,且只有一人使用的情況下甜蜜區(Sweet Spot)不需太大,用2.1的喇叭組態便能營造足夠的方位音效感,至於真正要如電影般的大範圍甜蜜區佈建,就要動用如SDDS(Sony Dynamic Digital Sound)的7.1組態,一般5.1也辦不到。
況且,在外出時的個人使用,或在車內等場合也不能用多聲道,除非是林肯級座車才有可能,一般房車休旅車同樣是雙聲道即足夠,而在隨身用、車用電子、DAB/DVB/DMB(數位音訊、視訊、多媒體資訊廣播)、GPS等興盛的今天,電子工程師必然要務實地對機外SPDIF、機內I2S等數位音訊介面有通透性瞭解才行。
附註:I2S之後亦有增強型規格,稱為I2S Enhanced。
▲圖說:要佈建電影院等級的大範疇方位音效甜蜜區,需動用SDDS(Sony Dynamic Digital Sound)的8聲道技術才行。(圖片來源:SDDS.com)
2007年12月12日 星期三
高清晰度音訊編解碼晶片-HD Audio Codec
轉載至http://tech.digitimes.com.tw/ShowNews.aspx?zCatId=C16&zNotesDocId=0000041734_B500J881SB2RYSC5UKMVG
(郭長祐/DigiTimes.com)有關PC的音訊功效,多年前在AC97獲得全面性的普及後,已有一段時間沒有大幅的推進提升,一直到Intel提出高清晰度音效(HD Audio),PC的音效技術及市場才再次找到新方向,而在AC97普及後與HD Audio未提出的期間,各音效晶片業者也只能依據自有的摸索及主張,以原有AC97標準為基礎進行若干擴充、強化,以提供比標準AC97更佳的音源表現、音訊功效,然而這樣的嘗試由於不具標準交換性,因此市場也有限。
不過,也因為這些摸索、嘗試,才催生出今日的HD Audio,HD Audio看似革新,實際上卻是種演進,將過往各家業者的摸索、嘗試進行整理歸納,將共通的提升需求列入HD Audio技術規範中,如同秦始皇未修築長城前,七雄中的偏北國度(燕、趙等)早已各自建立邊防城塞,秦一統後只是再將其連貫而已。
標準之外的特點
HD Audio成為PC新一代的共通音效標準後,各業者也紛紛推出呼應HD Audio的Codec晶片,不過各業者即便推出支援HD Audio規範的Codec晶片,也不可能單純以合乎標準為滿足,畢竟多年來各業者都早已建立自有晶片的技術特點與設計風格,以利市場中的差異性競爭,所以在滿足HD Audio標準外,必然有更多於標準外的特點值得主張、宣揚。
舉例而言,C-Media公司向來主張Audio Controller(音效控制晶片)與Audio Codec(音效編解碼晶片)合一的設計,即便今日多數的PC晶片組都已內建Audio Controller,此作法也仍舊維持。或如ADI公司,該公司與Intel向來保持密切的合作,所以在符合HD Audio標準之外,Intel在音訊方面所推行的相關技術也積極支持,如Sonic Focus技術即是一例。
此外,各家也都持續標榜Codec晶片的基礎混訊技術表現,例如支援多種的取樣率、支援個別的通道/聲道調配、各通道/聲道可各自設定取樣率及解析度、各DAC(及ADC)都具備高轉換品質(高SNR值)等。
另外,也因為數位家庭概念的當熱,環繞音效技術的支援也格外受Codec晶片業者所重視,紛紛將環繞音效以硬體(晶片電路)或軟體(驅動程式)方式搭配實現,例如支援Dolby技術、dts技術、QSound技術等,且經常同時多項支援,例如同時支援Dolby Digital Live與Dolby Pro Logic IIx,或同時支援dts Interactive與dts NEO:PC等。
事實上近年來Codec晶片業者早就不斷將各類環繞音效技術內建到Codec軟硬體方案,使Codec方案更為加值,然相對的也會增加方案成本,畢竟技術需要支付授權費才能取得,需要支付權利金才能量產,因此在以成本為考量的設計中,反而該選擇較少內建環繞音效技術的Codec晶片。
當然,在自有特色特點之外,更重要的是獲得Wintel的認同,目前晶片業者在宣稱其Codec晶片已合乎Intel HD Audio Rev.1.0標準外,也通常會主張該晶片已通過Microsoft的Windows Vista Premium Logo認證,確保對Windows Vista的支援,事實上Wintel也盡可能將HD Audio與Windows Vista劃上等號,並為此建立新的音效驅動架構,即UAA(Universal Audio Architecture),若想讓HD Audio支援Windows Vista之前的作業系統(如Windows XP)或非Windows的系統(如Mac OS X),則相關的驅動程式支援,就需要倚賴Codec晶片業者的研發心力才能實現。
重視錯接容忍與錄音品質
HD Audio不單是強調更多的聲道數、更高的音質(32-bit解析度、192kHz取樣率,但Codec的務實設計仍是使用24-bit解析度),也強調音源線路與音源孔座的隨插即用性,過去音源孔錯接不易被察覺,而今HD Audio要求必須能向使用者發出錯接提醒,甚至在硬體上直接進行連接調換,使錯接根本不會發生。
更進一步的,Codec晶片業者也以此種便利方向進行更多的擴展延伸,例如可自動偵測接入的喇叭還是耳機,兩種發聲裝置有不同的阻抗,需要不同的功率放大及驅動,過去通常無法自動偵測。
另外,因為PC的語音輸入功效比過去更常運用,包括語音辨識輸入、視訊會議、網路電話等,所以過去只求堪用的音源輸入已不合格,取而代之的是能支援數位麥克風、回音消除、固定頻率的背景雜音過濾、自動偵測與強化音源方位的感應等,使音源輸入的品質獲得提升。
另外,因為PC的語音輸入功效比過去更常運用,包括語音辨識輸入、視訊會議、網路電話等,所以過去只求堪用的音源輸入已不合格,取而代之的是能支援數位麥克風、回音消除、固定頻率的背景雜音過濾、自動偵測與強化音源方位的感應等,使音源輸入的品質獲得提升。
另外,因為PC的語音輸入功效比過去更常運用,包括語音辨識輸入、視訊會議、網路電話等,所以過去只求堪用的音源輸入已不合格,取而代之的是能支援數位麥克風、回音消除、固定頻率的背景雜音過濾、自動偵測與強化音源方位的感應等,使音源輸入的品質獲得提升。
註1:IDT公司的(STAC系列)Audio Codec晶片產品線購自Sigmatel公司。
(郭長祐/DigiTimes.com)有關PC的音訊功效,多年前在AC97獲得全面性的普及後,已有一段時間沒有大幅的推進提升,一直到Intel提出高清晰度音效(HD Audio),PC的音效技術及市場才再次找到新方向,而在AC97普及後與HD Audio未提出的期間,各音效晶片業者也只能依據自有的摸索及主張,以原有AC97標準為基礎進行若干擴充、強化,以提供比標準AC97更佳的音源表現、音訊功效,然而這樣的嘗試由於不具標準交換性,因此市場也有限。
不過,也因為這些摸索、嘗試,才催生出今日的HD Audio,HD Audio看似革新,實際上卻是種演進,將過往各家業者的摸索、嘗試進行整理歸納,將共通的提升需求列入HD Audio技術規範中,如同秦始皇未修築長城前,七雄中的偏北國度(燕、趙等)早已各自建立邊防城塞,秦一統後只是再將其連貫而已。
標準之外的特點
HD Audio成為PC新一代的共通音效標準後,各業者也紛紛推出呼應HD Audio的Codec晶片,不過各業者即便推出支援HD Audio規範的Codec晶片,也不可能單純以合乎標準為滿足,畢竟多年來各業者都早已建立自有晶片的技術特點與設計風格,以利市場中的差異性競爭,所以在滿足HD Audio標準外,必然有更多於標準外的特點值得主張、宣揚。
舉例而言,C-Media公司向來主張Audio Controller(音效控制晶片)與Audio Codec(音效編解碼晶片)合一的設計,即便今日多數的PC晶片組都已內建Audio Controller,此作法也仍舊維持。或如ADI公司,該公司與Intel向來保持密切的合作,所以在符合HD Audio標準之外,Intel在音訊方面所推行的相關技術也積極支持,如Sonic Focus技術即是一例。
此外,各家也都持續標榜Codec晶片的基礎混訊技術表現,例如支援多種的取樣率、支援個別的通道/聲道調配、各通道/聲道可各自設定取樣率及解析度、各DAC(及ADC)都具備高轉換品質(高SNR值)等。
另外,也因為數位家庭概念的當熱,環繞音效技術的支援也格外受Codec晶片業者所重視,紛紛將環繞音效以硬體(晶片電路)或軟體(驅動程式)方式搭配實現,例如支援Dolby技術、dts技術、QSound技術等,且經常同時多項支援,例如同時支援Dolby Digital Live與Dolby Pro Logic IIx,或同時支援dts Interactive與dts NEO:PC等。
事實上近年來Codec晶片業者早就不斷將各類環繞音效技術內建到Codec軟硬體方案,使Codec方案更為加值,然相對的也會增加方案成本,畢竟技術需要支付授權費才能取得,需要支付權利金才能量產,因此在以成本為考量的設計中,反而該選擇較少內建環繞音效技術的Codec晶片。
當然,在自有特色特點之外,更重要的是獲得Wintel的認同,目前晶片業者在宣稱其Codec晶片已合乎Intel HD Audio Rev.1.0標準外,也通常會主張該晶片已通過Microsoft的Windows Vista Premium Logo認證,確保對Windows Vista的支援,事實上Wintel也盡可能將HD Audio與Windows Vista劃上等號,並為此建立新的音效驅動架構,即UAA(Universal Audio Architecture),若想讓HD Audio支援Windows Vista之前的作業系統(如Windows XP)或非Windows的系統(如Mac OS X),則相關的驅動程式支援,就需要倚賴Codec晶片業者的研發心力才能實現。
重視錯接容忍與錄音品質
HD Audio不單是強調更多的聲道數、更高的音質(32-bit解析度、192kHz取樣率,但Codec的務實設計仍是使用24-bit解析度),也強調音源線路與音源孔座的隨插即用性,過去音源孔錯接不易被察覺,而今HD Audio要求必須能向使用者發出錯接提醒,甚至在硬體上直接進行連接調換,使錯接根本不會發生。
更進一步的,Codec晶片業者也以此種便利方向進行更多的擴展延伸,例如可自動偵測接入的喇叭還是耳機,兩種發聲裝置有不同的阻抗,需要不同的功率放大及驅動,過去通常無法自動偵測。
另外,因為PC的語音輸入功效比過去更常運用,包括語音辨識輸入、視訊會議、網路電話等,所以過去只求堪用的音源輸入已不合格,取而代之的是能支援數位麥克風、回音消除、固定頻率的背景雜音過濾、自動偵測與強化音源方位的感應等,使音源輸入的品質獲得提升。
另外,因為PC的語音輸入功效比過去更常運用,包括語音辨識輸入、視訊會議、網路電話等,所以過去只求堪用的音源輸入已不合格,取而代之的是能支援數位麥克風、回音消除、固定頻率的背景雜音過濾、自動偵測與強化音源方位的感應等,使音源輸入的品質獲得提升。
另外,因為PC的語音輸入功效比過去更常運用,包括語音辨識輸入、視訊會議、網路電話等,所以過去只求堪用的音源輸入已不合格,取而代之的是能支援數位麥克風、回音消除、固定頻率的背景雜音過濾、自動偵測與強化音源方位的感應等,使音源輸入的品質獲得提升。
註1:IDT公司的(STAC系列)Audio Codec晶片產品線購自Sigmatel公司。
2007年10月18日 星期四
把driver搬進Wince下需注意的問題
通常如果廠商所提供的driver夠完善的話,搬移的動作就會簡單許多,而且通常都會有說明檔可參考,所以按著步驟做應該ok
這次搬移的是audio driver,大致上的的搬移動作就是把所提供的driver貼到BSP層,
而需注意到地方有以下幾點:
1.修改BSP下的batch file
To let the drivers know what our BSP is based upon.
set WM_BSP= (BSP)
EX:
set WM_BSP=MAINSTONEIII
2.Every driver also needs to add the board support package to the CDEFINES. For Windows
CE this would be a line in each sources file like the following:
CDEFINES=$(CDEFINES) -DWM_BSP_$(WM_BSP)
This gives us a symbol like WM_BSP_(BSP)
所以在每個sources下要加入
EX:
CDEFINES=$(CDEFINES) -DWM_BSP_MAINSTONEIII
3.在Platform層的driver下的dir要記得做修改,把新加入的driver的資料夾名稱加進裡面,已防止build code時找不到新加入的driver,如下所示:
DIRS=\
wolfson \
wavedev \
4.在build code時常會遇到找不到header file的問題,這是因為在sources下沒有去指定在
build code時要搜尋的路徑,所以要自己手動加入
如下圖所示,有可能會出現類似的錯誤
所以在driver下相對應的子目錄裡的sources就要加入hrader file的指定路徑,如下所示
example:
EXT_INCLUDES=$(_TARGETPLATROOT)\src\drivers\Wolfson\inc\Compatibility
如此在build code時就會到所指定的路徑去找header file
這次搬移的是audio driver,大致上的的搬移動作就是把所提供的driver貼到BSP層,
而需注意到地方有以下幾點:
1.修改BSP下的batch file
To let the drivers know what our BSP is based upon.
set WM_BSP=
EX:
set WM_BSP=MAINSTONEIII
2.Every driver also needs to add the board support package to the CDEFINES. For Windows
CE this would be a line in each sources file like the following:
CDEFINES=$(CDEFINES) -DWM_BSP_$(WM_BSP)
This gives us a symbol like WM_BSP_(BSP)
所以在每個sources下要加入
EX:
CDEFINES=$(CDEFINES) -DWM_BSP_MAINSTONEIII
3.在Platform層的driver下的dir要記得做修改,把新加入的driver的資料夾名稱加進裡面,已防止build code時找不到新加入的driver,如下所示:
DIRS=\
wolfson \
wavedev \
4.在build code時常會遇到找不到header file的問題,這是因為在sources下沒有去指定在
build code時要搜尋的路徑,所以要自己手動加入
如下圖所示,有可能會出現類似的錯誤
所以在driver下相對應的子目錄裡的sources就要加入hrader file的指定路徑,如下所示
example:
EXT_INCLUDES=$(_TARGETPLATROOT)\src\drivers\Wolfson\inc\Compatibility
如此在build code時就會到所指定的路徑去找header file
2007年9月18日 星期二
加入可以讓 PE 驗證Bluetooth MAC 的機制
typedef FILE* stream;
stream f_in;
int numclosed;
建立一個可寫入data的檔案並設其路徑
f_in = _wfopen(L"\\My Flash Disk\\BTMAC.txt",L"w");
char s=':';
將 Bluetooth MAC 依序寫入檔案
for(i=0;i<=5;i++)
{
fwprintf(f_in,L"%x",toc->bBTAddr[i]);
if(i<5)
fwprintf(f_in,L"%c",s);
}
numclosed = fcloseall();
stream f_in;
int numclosed;
建立一個可寫入data的檔案並設其路徑
f_in = _wfopen(L"\\My Flash Disk\\BTMAC.txt",L"w");
char s=':';
將 Bluetooth MAC 依序寫入檔案
for(i=0;i<=5;i++)
{
fwprintf(f_in,L"%x",toc->bBTAddr[i]);
if(i<5)
fwprintf(f_in,L"%c",s);
}
numclosed = fcloseall();
訂閱:
文章 (Atom)