Looking for:
Windows 10 remove keyboard language from taskbar free download.How to Remove Language Icon on Windows 10 Taskbar

Speaking of languages, we’ve been asking Handwriting support for Turkish language for years : Still nothing Just having an Alt Gr key on a US keyboard can be very helpful. Of course, it will annoy the heck out of you if you regularly use right Alt. If you would like my driver, you can download it here.
July 28, Cool but why is Microsoft doing this? I cannot even add and existing language Traditional Chinese Taiwan so my wife can use it. Donald Adams.
Great to see you advertising the indeed often overlooked language features in globalized MS-Windows, given that you likely have a few more subscribers than Language Center directors. Better still, third parties can extend Windows by writing their own IMEs, many free – and not only Google can manage www. A great additional feature is that Windows 7 language packs not only install proofing tools and change the GUI language.
You get also also “free” speech-recognition for languages depending on how you count language variants. Would be great to have a similar overview for Windows 8 on the MS website. I realize, though: It is not only a great, but also a big organization…. Thomas Plagwitz. July 31, Thank you Scott. As a native Amharic speaker, I found your tip to be very valuable.
I was hoping that I could add the Amharic keyboard in my Windows R2 developer machine but was unsuccessful. I will definitely share this tip with anyone that uses English as a second language though. What I still find weird is that if you RDP to a machine your keyboard layout is changed.
So if I RDP from the UK to a US machine I get the US keyboard layout where certain keys are different. This seems like an odd default to me as it will not usually be what the user wants. There is a registry key to override it but nothing I can see in the RDP setup UI.
I assume that MS tries really hard with localization and adjusting to the needs of the customers outside of the US but I constantly see them fail were people are involved who cannot be put in a single region or language or will not stay in the one they first had to pick. Personally I think that the persons who decide about the localization features have a very naive or too simplistic way to look at the problem they are trying to solve. In my opinion a good idea BUT it has consequences.
My keyboard input and language settings are constantly messed up because I use devices with different keyboard layouts. I cannot pick English in Germany? August 05, You should maybe also mention that switching input language also enables spell check and such in the Windows 8 Mail app, etc. That’s why I for example add English as an input language, even though I can write English fine on my Norwegian keyboard.
Also note that you can have for example English as input language with Windows thinking your keyboard is actually English meaning the key labels don’t match up or with Windows using the same keyboard layout as you had so spell check and such will work, but keyboard labels still match. August 07, The Vietnamese keyboard needs some serious love.
It doesn’t follow any “pseudo” standards commonly used, and as such the usability is pretty much nerfed. The Google Translate website gets it right: Screenshot. August 11, As a developer it’s sometimes more practical to use the English keyboard layout than my native Norwegian one.
However switching keyboards using keyboard shortcuts is not really working for me and using the mouse to navigate is not an option. Kristian Schmidt. August 15, So that is cool. A while back I edited the custom English US keyboard mapping so I would no longer have to hold a shift key down to type a curly bracket.
Now I can just switch it with the shortcut key. October 18, October 22, So while you’re in that situation just stick with it and the price goes down. It’s like a shady used dealership. for the morning is also very food quality.
workers are also very friendly and an asset to the hotel. I have stayed in other Rijswijk hotels which are in most cases not as good as the Grand Winston, 12 15 PDT Caracas, Venezuela leader rejected Saturday the Bush administration’s call for early elections, As many thousands of opposition marchers swarmed a major highway on the 13th day of a crippling national strike.
In a move that aligned the with Chavez’s political opponents, The White House called Friday for early elections after months of favoring a hands off way for you to the political crisis. It was the strongest statement from oregon since April, When the White House tacitly endorsed a military led coup against Chavez by taking a look at the interim government that replaced him before its collapse two days later.
But Venezuela’s constitution must be amended to allow early elections in a process that could take months to arrange. Chavez, Who has yet in order to half of a six year term, appeared to dismiss even that idea Saturday when he told CNN’s Spanish language channel that “No early elections are thought here,I don’t think that land government is suggesting to the world that Venezuela must break with its constitution just to satisfy the pretensions of coup mongers, Chavez understood.
The arrival last weekend of British troops alone sparked alliance claims that they were not consulted, And that only 15 British commandos were needed for their declared non profit mission. one of Afghan groups, to boot, Are serious differences that will, without doubt emerge during the meeting, At least behind closed doors.
Pashtuns who have led Afghanistan for most of the last years are designed for scuppering any deal if they don’t feel sufficiently represented. similarly, Alliance leaders worry about support by businesses, like the US, For an old King Shah, Who ruled for four a long time,Zahir Shah is an older man, Who needs help to stand up from his seat. How can we expect him to guide others, relates Abdul Rab Rasul Sayyaf, A Pashtun and deputy head of the Northern Alliance command Council,Zahir Shah is out from Afghanistan for 27 years, then when he was ruling, One soldier with his belt could control all the people, mr.
We haven’t paid that price. We have the advantage of being an open, Large North American country that really does hear equality and to opportunity and we don’t bear any of that other baggage.
A naked promise does not create a binding accountability. Eisdem modis dissolvitur obligatio quae nascitur boyfriend contractu, Vel quasi, Quibus connrahitur. Or you must have to tighten your belt a notch in the morning. The exemplary user interface shown in FIGS. it can. 図4Kは電子メッセージの例示的なユーザインターフェースを示す。電子機器はメッセージの少なくとも一部分の音声読み上げを出力する(例えば、「Davidからあなた、John、Karen、及びPaul宛の電子メール。件名、新機能。メッセージには次のように書かれています、『これはとてもよさそうですよ。チームの皆さんはどう思いますか?』」)。 FIG.
Subject, new features. The message says: This looks very good, what do your team think? いくつかの実施形態では、電子機器はユーザから、特定の基準に該当する1つ以上の文書を要求する音声コマンドを受け取る。例えば、いくつかの実施形態では、特定の基準は、1つ以上の文書は1人以上の作成者によって作成されていることである(例えば、「Davidからの電子メールメッセージを探す」、「David、John、Karen、及びPaulからの電子メールメッセージを探す」、「この電子メールのアドレスからの電子メールメッセージを探す」等)。他の実施形態では、特定の基準は、1つ以上の文書は特定の文書に関連付けられることである(例えば、「このスレッド内の電子メールメッセージを探す」、「この電子メールへの返信を探す」等)。更に他の実施形態では、特定の基準は、1つ以上の文書は特定の文書への返信であることである。なお他の実施形態では、特定の基準は、1つ以上の文書はそれぞれの作成者からの最後のメッセージを含むことである(例えば、「Davidからの最後の電子メールを探す」)。いくつかの実施形態では、特定の基準は、1つ以上の文書はそれぞれの作成者からの最初のメッセージを含むことである。 In some embodiments, the electronic device receives a voice command from a user requesting one or more documents that meet certain criteria.
In yet another embodiment, the specific criteria is that one or more documents are replies to a specific document. In some embodiments, the particular criteria is that one or more documents include an initial message from each author. In some embodiments, a particular date range corresponds to a single date. 図4Lは、ユーザが、特定の作成者、例えば、Davidによって作成された電子メールメッセージを要求することに応じて表示される例示的なユーザインターフェースを示す。電子機器は電子メールメッセージのリストの音声読み上げを出力する。いくつかの実施形態では、電子機器は、リスト内の電子メールメッセージの数を指示する可聴情報を出力する。 FIG.
The electronic device outputs a spoken reading of the list of email messages. In some embodiments, the electronic device outputs audible information indicating the number of email messages in the list. 図4Mは、ユーザが、以前に表示された電子メールメッセージへの返信を要求することに応じて表示される代替的なユーザインターフェースを示す。電子機器は返信のリストの音声読み上げを出力する。いくつかの実施形態では、電子機器は、リスト内の電子メールメッセージの数を指示する可聴情報を出力する。 FIG.
The electronic device outputs a speech reading of the reply list. いくつかの実施形態では、電子機器はリスト(例えば、図4L又は図4Mに示されているリスト)内の電子メールメッセージの音声読み上げを出力する。いくつかの実施形態では、電子機器がリスト内の最後の電子メールの音声読み上げを出力する際には、電子機器は、読み上げられる電子メールはリスト内の最後の電子メールであることを指示する可聴情報を出力する。 In some embodiments, the electronic device outputs a speech reading of an email message in a list eg, the list shown in FIG.
In some embodiments, when the electronic device outputs a speech-to-speech for the last email in the list, the electronic device may audibly indicate that the email being read is the last email in the list. Output information. In some embodiments, the electronic device does not include any display.
図5は、いくつかの実施形態に係る電子機器(例えば、図2に関して説明されているユーザ機器104又は図3に関して説明されている独立型機器300)によって実行される文書内をナビゲートするための操作を示すフローチャートである。いくつかの実施形態では、電子機器はポータブル電子機器を含む。いくつかの実施形態では、電子機器はコンピュータシステムを含む。 FIG. It is a flowchart which shows operation of. In some embodiments, the electronic device includes a portable electronic device.
In some embodiments, the electronic device includes a computer system. これらの操作は単なる例示に過ぎず、種々の実施形態では、より少数の、又はより少ない操作が電子機器によって実行されてもよい。 These operations are merely exemplary, and in various embodiments, fewer or fewer operations may be performed by the electronic device.
いくつかの実施形態では、電子機器は第1の文書を受信する(502)。 In some embodiments, the electronic device receives the first document 電子機器は文書の一部分の音声読み上げを出力する(504)(例えば、図4B)。 The electronic device outputs a reading aloud of a portion of the document eg, FIG. いくつかの実施形態では、電子機器は、文書のその部分はリンクを含むかどうかを判定する(506)。文書のその部分がリンクを含む場合には、電子機器は、複数のリンクのうちのリンクを特定する可聴情報(例えば、図4Cに関して説明されたように、単語「リンク」の音声出力若しくはオーディオ信号「ビープ」、並びに/又はリンクされている文書の題名、作成者、日付、及び出典等の、リンクについての情報)を出力する(508)。 In some embodiments, the electronic device determines whether the portion of the document includes a link いくつかの実施形態では、電子機器はユーザから音声コマンドを受け取る。いくつかの実施形態では、電子機器は、電子機器は音声コマンドを受け取ったかどうかを判定する(510)。 In some embodiments, the electronic device receives a voice command from the user.
In some embodiments, the electronic device determines whether the electronic device has received a voice command.
いくつかの実施形態では、電子機器が音声コマンドを受け取ると、電子機器は、受け取られた音声コマンドはナビゲーションコマンドであるかどうか(例えば、受け取られた音声コマンドは、リンクに関連付けられる第2の文書(すなわち、リンクされている文書)へのナビゲーションの要求を含むかどうか)を判定する(512)。受け取られた音声コマンドが、リンクされている文書へのナビゲーションの要求を含む場合には、電子機器は、リンクされている文書を取得する(514)。次に、電子機器は、リンクされている文書の1つ以上の部分の音声読み上げを出力する(504)(例えば、図4E)。 In some embodiments, when the electronic device receives a voice command, the electronic device determines whether the received voice command is a navigation command eg, the received voice command is a second document associated with the link.
Ie, whether it includes a request for navigation to the linked document If the received voice command includes a request for navigation to the linked document, the electronic device obtains the linked document Next, the electronic device outputs a text-to-speech reading of one or more portions of the linked document eg, FIG.
いくつかの実施形態では、電子機器が音声コマンドを受け取ると、電子機器は、受け取られた音声コマンドは情報コマンドであるかどうか(例えば、受け取られた音声コマンドは、リンクされている文書についての情報の要求を含むかどうか)を判定する(516)。受け取られた音声コマンドが、「作成者は誰か」等の、リンクされている文書についての情報(例えば、題名、作成者、日付、出典、要旨、要約、最初の文、最初の段落等)の要求を含む場合には、電子機器は、要求されている情報を取得する(518)。いくつかの実施形態では、要求されている情報の少なくとも一部分は、リンクされている文書から入手される(例えば、題名、作成者、日付、及び要旨)。いくつかの実施形態では、要求されている情報の少なくとも一部分は、リンクされている文書を処理することによって入手される(例えば、リンクされている文書を要約すること)。いくつかの実施形態では、要求されている情報の少なくとも一部分はサードパーティサーバによって提供される(例えば、リンクされている文書の批評)。電子機器は、要求されている情報の音声読み上げを出力する(520)。他の実施形態では、電子機器は、要求されている情報の少なくとも一部分を、リンクされている文書のメタデータから受け取るか、又は詳細を得るために、リンクされている文書に関連付けられる他のソースから情報を取得する。 In some embodiments, when the electronic device receives a voice command, the electronic device determines whether the received voice command is an information command eg, the received voice command is information about a linked document.
Whether the request is included If so, the electronic device obtains the requested information In some embodiments, at least a portion of the requested information is obtained from linked documents eg, title, author, date, and gist. In some embodiments, at least a portion of the requested information is obtained by processing the linked document eg, summarizing the linked document. In some embodiments, at least a portion of the requested information is provided by a third party server eg, review of linked documents.
The electronic device outputs a voice reading of the requested information In other embodiments, the electronic device receives at least a portion of the requested information from the metadata of the linked document or other source associated with the linked document to obtain details.
Get information from. いくつかの実施形態では、ユーザが、2つの隣接するリンクの間、又は2つの隣接するリンクの直後に音声コマンドを提供した場合には、電子機器は、2つのリンクを、音声コマンドに対応する候補リンクとして特定する。ユーザの音声コマンドは、2つの隣接するリンクの1つ目のリンク又は2つ目のリンクに向けられている可能性があるため、ユーザの音声コマンドはどちらのリンクに対して実行されるべきであるかについて明らかにする必要があり得る。いくつかの実施形態では、電子機器は、候補リンクについての可聴情報、及び/又はユーザはどちらのリンクに対して音声コマンドを実行したいのかについての可聴問い合わせを出力する。例えば、電子機器が、文「学校Aと学校Bとの次の試合は3月3日にあります」の音声読み上げを出力する間に、ユーザは音声コマンド「リンクをたどる」を提供する。いくつかの実施形態では、電子機器は可聴問い合わせ「どのリンクですか?」を出力し、ユーザから後続の音声コマンドを受け取る。後続の音声コマンドが「学校B」である場合には、電子機器は、テキスト「学校B」にリンクされている文書を取得し、リンクされている文書の一部分の音声読み上げを出力する。 In some embodiments, if the user provides a voice command between two adjacent links or immediately after the two adjacent links, the electronic device can respond to the two links with the voice command.
Specify as a candidate link. Since the user voice command may be directed to the first link or the second link of two adjacent links, the user voice command should be executed for which link It may be necessary to clarify what is.
いくつかの実施形態では、文書のそれぞれの部分の音声読み上げを出力した後、電子機器は、文書の最後に到達したかどうか(例えば、電子機器は全文書の音声読み上げを出力したかどうか)を判定する(522)。文書の最後に到達していなければ、電子機器は文書の後続の部分の音声読み上げを出力する(504)。いくつかの実施形態では、文書の最後に到達した場合には、電子機器はユーザからのナビゲーションコマンドを待つ。電子機器がユーザから、以前の文書又は新しい文書へのナビゲーションを要求するナビゲーションコマンドを受け取ると(524)、電子機器は以前の文書又は新しい文書を取得する(526)。上述したように、これらの操作(例えば、操作522、524、及び526等)はサーバ又はモバイル機器によって実行されてもよい。いくつかの実施形態では、ユーザからナビゲーションコマンドを受け取るのに先立って、電子機器は、(例えば、図4Gに関して説明されたように)ユーザは別の文書へナビゲートしたいのかどうかについての音声問い合わせを出力する。いくつかの実施形態では、ユーザが別の文書へナビゲートしたくない場合には、電子機器は音声読み上げの出力を停止する。 In some embodiments, after outputting the speech reading for each part of the document, the electronic device has reached the end of the document eg, whether the electronic device has output a speech reading of the entire document.
Determine If the end of the document has not been reached, the electronic device outputs a speech reading of the subsequent portion of the document In some embodiments, when the end of the document is reached, the electronic device waits for a navigation command from the user. When the electronic device receives from the user a navigation command requesting navigation to a previous document or a new document , the electronic device obtains the previous document or the new document As described above, these operations eg, operations , , and , etc.
may be performed by a server or mobile device. In some embodiments, prior to receiving a navigation command from the user, the electronic device makes a voice query as to whether the user wants to navigate to another document eg, as described with respect to FIG. In some embodiments, if the user does not want to navigate to another document, the electronic device stops outputting speech. 図6は、いくつかの実施形態に係る電子機器(例えば、図2に関して説明されているユーザ機器104又は図3に関して説明されている独立型機器300)によって実行される文書をブラウズするための操作を示すフローチャートである。いくつかの実施形態では、電子機器はポータブル電子機器を含む。いくつかの実施形態では、電子機器はコンピュータシステムを含む。 FIG.
It is a flowchart which shows. いくつかの実施形態では、電子機器は、複数の部分を有する文書を受信する(602)。部分のうちの少なくともいくつかはそれぞれのメタデータに関連付けられる。いくつかの実施形態では、それぞれのメタデータは文書の構造(例えば、段落、文、見出し、スタイル等)を指示する。 In some embodiments, the electronic device receives a document having a plurality of parts At least some of the portions are associated with respective metadata.
In some embodiments, each metadata indicates the structure of the document eg, paragraph, sentence, heading, style, etc. 電子機器は文書のそれぞれの部分の音声読み上げを出力する(604)。文書のそれぞれの部分の音声読み上げを出力する間、電子機器は各個それぞれの部分を、その部分のそれぞれのメタデータに基づき可聴的に区別する。例えば、電子機器は、それぞれの部分はサインポストに対応するかどうかを判定する(606)。本明細書で使用するとき、サインポストは文書内の所定のロケーション又は所定の形式のロケーションを指す。いくつかの実施形態では、それぞれの部分がサインポストに対応する場合には、電子機器は、その部分はサインポストに対応するかどうかを指示するための音声信号又はオーディオ信号を出力する(608)。例えば、いくつかの実施形態では、新しい段落の開始時に、電子機器は、新しい段落の冒頭を指示するための音声信号又はオーディオ信号を出力する。同様に、いくつかの実施形態では、節の冒頭若しくは最後を指示するため、並びに/又はブックマークを指示するための音声信号又はオーディオ信号が用いられる。 The electronic device outputs a speech reading of each part of the document While outputting the speech-to-speech for each part of the document, the electronic device audibly distinguishes each individual part based on its respective metadata.
For example, the electronic device determines whether each part corresponds to a sign post As used herein, a sign post refers to a predetermined location or type of location within a document. In some embodiments, if each portion corresponds to a sign post, the electronic device outputs an audio or audio signal to indicate whether the portion corresponds to a sign post For example, in some embodiments, at the beginning of a new paragraph, the electronic device outputs an audio or audio signal to indicate the beginning of the new paragraph.
部分はサインポストに対応するのかどうかを指示するための音声信号又はオーディオ信号を出力した後に(例えば、部分はサインポストに対応するのかどうかを指示するための音声信号又はオーディオ信号を出力した後に、2つの段落の音声読み上げを出力した後に)、電子機器はユーザから音声コマンドを受け取り、音声コマンドはナビゲーションコマンドであるかどうかを判定する(610)。音声コマンドが、サインポストへのナビゲーションを要求するナビゲーションコマンドである場合には、電子機器は、サインポストに対応する部分へナビゲートし(614)、サインポストに対応する部分の音声読み上げを出力する(604)。 After outputting an audio signal or audio signal to indicate whether the part corresponds to a sign post e.
If the voice command is a navigation command requesting navigation to the sign post, the electronic device navigates to a portion corresponding to the sign post , and outputs a speech reading of the portion corresponding to the sign post. いくつかの実施形態では、文書のそれぞれの部分の音声読み上げを出力した後、電子機器は、文書の最後に到達したかどうか(例えば、電子機器は全文書の音声読み上げを出力したかどうか)を判定する(616)。文書の最後に到達していなければ、電子機器は文書の後続の部分の音声読み上げを出力する(604)。 In some embodiments, after outputting the speech reading for each part of the document, the electronic device has reached the end of the document eg, whether the electronic device has output a speech reading of the entire document.
Judgment is made 図7は、いくつかの実施形態に係る電子機器(例えば、図2に関して説明されているユーザ機器104又は図3に関して説明されている独立型機器300)によって実行される文書のセットを特定するための操作を示すフローチャートである。いくつかの実施形態では、電子機器はポータブル電子機器を含む。いくつかの実施形態では、電子機器はコンピュータシステムを含む。 FIG. いくつかの実施形態では、電子機器は文書の少なくとも一部分の音声読み上げを出力する(702)。 In some embodiments, the electronic device outputs a speech reading of at least a portion of the document 電子機器はユーザから、特定の基準に該当する文書を要求する音声コマンドを受け取る(704)。いくつかの実施形態では、電子機器は、音声読み上げを出力する間に、音声コマンドの少なくとも一部分を受け取る。いくつかの実施形態では、特定の基準は、1つ以上の特定された文書は、(706)ユーザによって特定された1人以上の作成者によって作成されていることを必要とする。いくつかの実施形態では、特定の基準は、1つ以上の特定された文書は、(708)特定の文書に関連付けられることを必要とする。いくつかの実施形態では、特定の基準は、1つ以上の特定された文書は、(710)特定の文書への返信であることを必要とする。いくつかの実施形態では、特定の基準は、1つ以上の特定された文書は、(712)それぞれの作成者からの最後のメッセージを含むことを必要とする。いくつかの実施形態では、特定の基準は、1つ以上の特定された文書は、(714)ユーザによって特定された特定の日付範囲に該当することを必要とする。 The electronic device receives a voice command requesting a document corresponding to a specific criterion from the user In some embodiments, the electronic device receives at least a portion of the voice command while outputting the voice reading.
In some embodiments, the particular criteria require that one or more identified documents have been created by one or more authors identified by the user. In some embodiments, the particular criteria require that one or more identified documents be associated with a particular document. In some embodiments, the specific criteria require that one or more specified documents be a reply to the specific document.
In some embodiments, the specific criteria require that one or more identified documents include the last message from each author. In some embodiments, the specific criteria require that one or more specified documents fall within a specific date range specified by the user.
いくつかの実施形態では、特定の基準に該当する文書を要求する音声コマンドを受け取るのに先立って、電子機器はユーザから文書に関する情報(例えば、作成者、単語数、最後の更新の日付、文書内の節の数、等)の要求を受け取る。いくつかの実施形態では、文書に関する情報の要求に応じて、電子機器は可聴情報を出力する、文書に関する要求された情報を含む。いくつかの実施形態では、電子機器は、要求された情報を、1つ以上の遠隔コンピュータシステム(例えば、1つ以上の検索エンジン及び/又はデータベースサーバ)から取得する。いくつかの実施形態では、電子機器は、要求された情報を文書から判定する。 In some embodiments, prior to receiving a voice command requesting a document that meets certain criteria, the electronic device may receive information about the document from the user eg, author, number of words, date of last update, document The number of clauses within, etc.
In some embodiments, in response to a request for information about the document, the electronic device includes the requested information about the document that outputs audible information. In some embodiments, the electronic device determines the requested information from the document. いくつかの実施形態では、電子機器はユーザから、要求された情報を記憶せよとの要求を受け取り、それに応じて、要求された情報を(例えば、電子機器上又は遠隔に)記憶する。いくつかの実施形態では、電子機器は、要求された情報を記憶せよとのユーザからの要求なしに、要求された情報を記憶する。 In some embodiments, the electronic device receives a request from a user to store the requested information and stores the requested information eg, on the electronic device or remotely accordingly.
In some embodiments, the electronic device stores the requested information without a request from the user to store the requested information.
In some embodiments, in response to a request for a document creator, the electronic device outputs audible information including the document creator. In some cases, author information is extracted from a web page linked to a document.
いくつかの実施形態では、電子機器は、要求された情報に基づく追加情報の要求を受け取り、追加情報を入手し、追加情報を出力する。作成者情報に関して上述された例のいくつかにおいては、文書の作成者を含む可聴情報を出力した後、電子機器は、同じ作成者によって作成された他の文書の要求(例えば、「この作成者は他にどんな記事を書いていますか?」)を受け取り、それに応じて、文書の作成者によって作成された他の文書を含む情報を入手し、情報を出力する。いくつかの実施形態では、電子機器は、1つ以上の遠隔コンピュータシステム(例えば、1つ以上の検索エンジン及び/又はデータベースサーバ)へ要求を送信し、1つ以上の遠隔コンピュータシステムの少なくともサブセットから情報の少なくとも一部分を受信することによって、文書の作成者によって作成された他の文書を含む情報を入手する。 In some embodiments, the electronic device receives a request for additional information based on the requested information, obtains the additional information, and outputs the additional information.
By receiving at least a portion of the information, information including other documents created by the document creator is obtained. いくつかの実施形態では、文書の少なくとも一部分の音声読み上げを出力する間に、電子機器はユーザから、文書に関する情報を記憶せよとの要求を受け取る。いくつかの実施形態では、文書に関する情報を記憶せよとの要求を受け取ることに応じて、電子機器は文書に関する情報を記憶する。例えば、いくつかの実施形態では、要求は、文書をブックマークすること(例えば、「この記事をブックマークすること」)であり、電子機器は文書のためのアクセス情報(例えば、文書のためのユニバーサルリソースロケータ)をブックマークとして記憶する。いくつかの実施形態では、電子機器は文書のためのアクセス情報を電子機器上に記憶する。いくつかの実施形態では、電子機器はアクセス情報を遠隔サーバにおいて記憶する。 In some embodiments, the electronic device receives a request from the user to store information about the document while outputting a speech reading of at least a portion of the document.
In some embodiments, in response to receiving a request to store information about the document, the electronic device stores information about the document.
Locator is stored as a bookmark. In some embodiments, the electronic device stores access information for the document on the electronic device. In some embodiments, the electronic device stores access information at a remote server. いくつかの実施形態では、電子機器は、後続の操作(例えば、以下において説明される操作716、718、及び720)を実行することなく、要求された情報を提供することは、当業者には明らかであろう。 In some embodiments, the electronic device may provide the requested information without performing subsequent operations eg, operations , , and , described below , to those skilled in the art.
It will be clear. 電子機器は、特定の基準に該当する1つ以上の文書を特定する(716)(例えば、図4L及び4M)。 The electronic device identifies one or more documents that meet certain criteria eg, FIGS. 電子機器は、1つ以上の特定された文書のそれぞれの文書の少なくとも一部分の音声読み上げを出力する(718)。 The electronic device outputs a speech reading of at least a portion of each of the one or more identified documents いくつかの実施形態では、文書のそれぞれの部分の音声読み上げを出力した後、電子機器は、文書の最後に到達したかどうか(例えば、電子機器は全文書の音声読み上げを出力したかどうか)を判定する(720)。文書の最後に到達していなければ、電子機器は文書の後続の部分の音声読み上げを出力する(718)。 In some embodiments, after outputting the speech reading for each part of the document, the electronic device has reached the end of the document eg, whether the electronic device has output a speech reading of the entire document.
いくつかの実施形態では、文書の最後に到達していれば、電子機器は、1つ以上の特定された文書内の全ての文書は既読であるかどうかを判定する。1つ以上の特定された文書の全ての文書が既読ではなければ、電子機器は1つ以上の特定された文書内の次の文書の一部分の音声読み上げを出力する。 In some embodiments, if the end of the document has been reached, the electronic device determines whether all documents within the one or more identified documents have been read.
If all documents of the one or more specified documents are not already read, the electronic device outputs a speech reading of a portion of the next document in the one or more specified documents. いくつかの実施形態に基づき、図8は、上述した通りの本発明の原理に基づいて構成される電子機器800の機能ブロック図を示す。この機器の機能ブロックは、本発明の原理を実行するためにハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせにより実施することができる。図8に述べられる機能ブロックは、上記に述べたような本発明の原理を実施するために、組み合わせるか、又はサブブロックに分割することができることが当業者によって理解される。したがって、本明細書における説明は、あらゆる可能な組み合わせ若しくは分割、又は本明細書に述べられる更なる機能ブロックの定義を支持しうるものである。 In accordance with some embodiments, FIG.
The functional blocks of this device can be implemented by hardware, software, or a combination of hardware and software to implement the principles of the present invention. It will be appreciated by those skilled in the art that the functional blocks described in FIG.
Accordingly, the description herein can support any possible combination or division, or definition of additional functional blocks described herein. 図8に示されているように、電子機器800は、オーディオ入力ユニット804及びオーディオ出力ユニット806を含む。いくつかの実施形態では、電子機器800は、電子文書の1つ以上の部分を表示するように構成されるディスプレイユニット802を含む。いくつかの実施形態では、電子機器800は、タッチ感知面ユニット808上における1つ以上のジェスチャを検出するように構成されるタッチ感知面ユニット808を含む。電子機器は、オーディオ入力ユニット804及びオーディオ出力ユニット806に結合される処理ユニット810を更に含む。いくつかの実施形態では、処理ユニット810はまた、ディスプレイユニット802及びタッチ感知面ユニット808にも結合される。いくつかの実施形態では、処理ユニット810は、文書受信ユニット812、出力ユニット814、音声コマンド受信ユニット816、記憶ユニット818、取得ユニット820、特定ユニット822、及びユーザ選択受信ユニット824を含む。 As shown in FIG.
In some embodiments, the electronic device includes a display unit configured to display one or more portions of an electronic document.
In some embodiments, the electronic device includes a touch-sensitive surface unit that is configured to detect one or more gestures on the touch-sensitive surface unit The electronic device further includes a processing unit coupled to the audio input unit and the audio output unit In some embodiments, the processing unit is also coupled to a display unit and a touch sensitive surface unit In some embodiments, the processing unit includes a document receiving unit , an output unit , a voice command receiving unit , a storage unit , an acquisition unit , a specific unit , and a user selection receiving unit 処理ユニット810は、複数のリンクを含む第1の文書を(例えば、文書受信ユニット812を用いて)受信するように構成される。処理ユニット810は、第1の文書の少なくとも一部分の音声読み上げを(例えば、出力ユニット814を用いてオーディオ出力ユニット806を通じて)出力するように構成される。処理ユニット810は、複数のリンクのうちのリンクを特定する可聴情報を(例えば、出力ユニット814を用いてオーディオ出力ユニット806を通じて)出力するように構成される。処理ユニット810は、リンクを特定する可聴情報を出力することに応じて、ユーザからリンクに関する音声コマンドを(例えば、音声コマンド受信ユニット816を用いてオーディオ入力ユニット804を通じて)受け取るように構成される。処理ユニット810は、ユーザから音声コマンドを受け取ることに応じて、リンクに関連付けられる第2の文書の少なくとも一部分の音声読み上げを(例えば、出力ユニット814を用いてオーディオ出力ユニット806を通じて)出力するように構成される。 The processing unit is configured to receive a first document that includes a plurality of links eg, using the document receiving unit The processing unit is configured to output a speech reading of at least a portion of the first document eg, through the audio output unit using the output unit The processing unit is configured to output audible information identifying a link of the plurality of links eg, through the audio output unit using the output unit The processing unit is configured to receive a voice command for the link from the user eg, via the audio input unit using the voice command receiving unit in response to outputting audible information identifying the link.
In response to receiving a voice command from the user, the processing unit outputs a speech reading of at least a portion of the second document associated with the link eg, through the audio output unit using the output unit いくつかの実施形態では、リンクは第1の文書の部分内のテキストに関連付けられる。 In some embodiments, the link is associated with text in the portion of the first document. いくつかの実施形態では、処理ユニット810は、ユーザからリンクに関する音声コマンドを受け取ることに応じて、リンクについての情報を(例えば、記憶ユニット818を用いて)記憶し、第2の文書の1つ以上の部分の音声読み上げを(例えば、出力ユニット814を用いてオーディオ出力ユニット806を通じて)出力するように構成される。 In some embodiments, the processing unit stores information about the link eg, using the storage unit in response to receiving a voice command regarding the link from the user and one of the second documents.
It is configured to output the speech reading of the above part for example, through the audio output unit using the output unit いくつかの実施形態では、処理ユニット810は、第2の文書の少なくとも一部分の音声読み上げを出力した後に、ユーザから、第1の文書へ戻るナビゲーションを要求する音声コマンドを(例えば、音声コマンド受信ユニット816を用いてオーディオ入力ユニット804を通じて)受け取り、ユーザから、第1の文書へ戻るナビゲーションを要求する音声コマンドを受け取ることに応じて、第1の文書内の、リンクに関連付けられるテキストの後に続く第1の文書の1つ以上の部分の音声読み上げを(例えば、出力ユニット814を用いてオーディオ出力ユニット806を通じて)出力するように構成される。 In some embodiments, the processing unit outputs a voice command requesting navigation back from the user back to the first document e.
In response to receiving a voice command requesting navigation back to the first document from the user, and following the text associated with the link in the first document.
One or more portions of a document are configured to be output aloud eg, through audio output unit using output unit いくつかの実施形態では、処理ユニット810は、第2の文書の少なくとも一部分の音声読み上げを出力した後に、第1の文書へナビゲートして戻ることについての音声問い合わせを(例えば、出力ユニット814を用いてオーディオ出力ユニット806を通じて)出力し、第1の文書へナビゲートして戻ることについての音声問い合わせを出力することに応じて、ユーザから、第1の文書へ戻るナビゲーションを要求する音声コマンドを(例えば、音声コマンド受信ユニット816を用いてオーディオ入力ユニット804を通じて)受け取り、ユーザから、第1の文書へ戻るナビゲーションを要求する音声コマンドを受け取ることに応じて、第1の文書内の、リンクに関連付けられるテキストを含む第1の文書の1つ以上の部分の音声読み上げを(例えば、出力ユニット814を用いてオーディオ出力ユニット806を通じて)出力するように構成される。 In some embodiments, the processing unit outputs a spoken inquiry about navigating back to the first document after outputting a speech reading of at least a portion of the second document eg, the output unit In response to outputting a voice query about navigating back to the first document and requesting navigation back to the first document in response to outputting a voice query about navigating back to the first document.
In response to receiving a voice command e. いくつかの実施形態では、処理ユニット810は、第2の文書の少なくとも一部分の音声読み上げを出力した後に、ユーザから、第1の文書へ戻るナビゲーションを要求する音声コマンドを受け取ることに応じて、第1の文書内の、リンクに関連付けられるテキストの後に続く第1の文書の1つ以上の部分の音声読み上げを(例えば、出力ユニット814を用いてオーディオ出力ユニット806を通じて)自動的に出力するように構成される。 In some embodiments, the processing unit is responsive to receiving a voice command requesting navigation back to the first document from the user after outputting a speech reading of at least a portion of the second document.
To automatically output speech readings of one or more portions of the first document that follow the text associated with the link in one document eg, through the audio output unit using the output unit いくつかの実施形態では、音声コマンドは第1の種類の音声コマンドである。いくつかの実施形態では、処理ユニット810は、ユーザから、リンクに関する、第1の種類とは別の第2の種類の音声コマンドを(例えば、音声コマンド受信ユニット816を用いてオーディオ入力ユニット804を通じて)受け取り、ユーザからリンクに関する第2の種類の音声コマンドを受け取ることに応じて、第2の文書から情報を(例えば、取得ユニット820を用いて)取得し、第2の文書からの情報に基づき第2の種類の音声コマンドに対応する音声情報を(例えば、出力ユニット814を用いてオーディオ出力ユニット806を通じて)出力するように構成される。 In some embodiments, the voice command is a first type of voice command.
In some embodiments, the processing unit sends a second type of voice command related to the link from the user, different from the first type eg, through the audio input unit using the voice command receiving unit Receiving information from the second document in response to receiving a second type of voice command relating to the link from the user eg, using the acquisition unit and based on information from the second document Voice information corresponding to the second type of voice command is configured to be output eg, through the audio output unit using the output unit いくつかの実施形態では、第2の種類の音声コマンドは第2の文書の作成者についての情報の要求を含む。 In some embodiments, the second type of voice command includes a request for information about the creator of the second document.
いくつかの実施形態では、第2の種類の音声コマンドは第2の文書の要約の要求を含む。 In some embodiments, the second type of voice command includes a request for a second document summary. いくつかの実施形態では、処理ユニット810は、ユーザからの音声コマンドに対応する候補リンクとして2つ以上のリンクを(例えば、特定ユニット822を用いて)特定し、候補リンクについての可聴情報を(例えば、出力ユニット814を用いてオーディオ出力ユニット806を通じて)出力し、ユーザから候補リンクのうちの単一のリンクの選択を(例えば、ユーザ選択受信ユニット824を用いてオーディオ入力ユニット804又はタッチ感知面ユニット808を通じて)受け取るように構成される。 In some embodiments, the processing unit identifies two or more links as candidate links corresponding to a voice command from a user eg, using the identification unit and audible information about the candidate links For example, output using audio output unit using output unit and selecting a single link of candidate links from a user eg, audio input unit or touch-sensitive surface using user selection receiving unit Configured to receive through unit いくつかの実施形態に基づき、図9は、上述した通りの本発明の原理に基づいて構成される電子機器900の機能ブロック図を示す。この機器の機能ブロックは、本発明の原理を実行するためにハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせにより実施することができる。図9に述べられる機能ブロックは、上記に述べたような本発明の原理を実施するために、組み合わせるか、又はサブブロックに分割することができることが当業者によって理解される。したがって、本明細書における説明は、あらゆる可能な組み合わせ若しくは分割、又は本明細書に述べられる更なる機能ブロックの定義を支持しうるものである。 In accordance with some embodiments, FIG.
図9に示されているように、電子機器900は、オーディオ入力ユニット904及びオーディオ出力ユニット906を含む。いくつかの実施形態では、電子機器900は、電子文書の1つ以上の部分を表示するように構成されるディスプレイユニット902を含む。いくつかの実施形態では、電子機器900は、タッチ感知面ユニット908上における1つ以上のジェスチャを検出するように構成されるタッチ感知面ユニット908を含む。電子機器は、オーディオ入力ユニット904及びオーディオ出力ユニット906に結合される処理ユニット910を更に含む。いくつかの実施形態では、処理ユニット910はまた、ディスプレイユニット902及びタッチ感知面ユニット908にも結合される。いくつかの実施形態では、処理ユニット910は、文書受信ユニット912、出力ユニット914、及び音声コマンド受信ユニット916を含む。 As shown in FIG.
In some embodiments, the processing unit includes a document receiving unit , an output unit , and a voice command receiving unit 処理ユニット910は、複数の部分を有する文書を(例えば、文書受信ユニット912を用いて)受信するように構成され、部分のうちの少なくともいくつかはそれぞれのメタデータに関連付けられる。処理ユニット910は、文書のそれぞれの部分の音声読み上げであって、それぞれの部分をそれぞれのメタデータに基づき可聴的に区別することを含む、音声読み上げを(例えば、出力ユニット914を用いてオーディオ出力ユニット906を通じて)出力するように構成される。処理ユニット910は、ユーザから、特定のメタデータに関連付けられる特定の部分へのナビゲーションを要求する音声コマンドを(例えば、音声コマンド受信ユニット916を用いてオーディオ入力ユニット904を通じて)受け取るように構成される。処理ユニット910は、音声コマンドを受け取ることに応じて、特定のメタデータに関連付けられる特定の部分の音声読み上げを(例えば、出力ユニット914を用いてオーディオ出力ユニット906を通じて)出力するように構成される。 The processing unit is configured to receive a document having a plurality of parts eg, using the document receiving unit , at least some of the parts being associated with respective metadata.
The processing unit reads the speech of each part of the document and includes audibly distinguishing each part based on the respective metadata eg, audio output using the output unit Configured to output through unit The processing unit is configured to receive a voice command eg, through the audio input unit using the voice command receiving unit requesting navigation from a user to a specific part associated with specific metadata.
The processing unit is configured to output a particular portion of the speech reading associated with the particular metadata eg, via the audio output unit using the output unit in response to receiving the voice command. いくつかの実施形態では、処理ユニット910は、文書内のテキストの第1の部分の音声読み上げを、第1の音声特性のセットを用いてユーザへ(例えば、出力ユニット914を用いてオーディオ出力ユニット906を通じて)出力し、文書内のテキストの第2の部分の音声読み上げを、第1の音声特性のセットとは別の第2の音声特性のセットを用いてユーザへ(例えば、出力ユニット914を用いてオーディオ出力ユニット906を通じて)出力することによって、テキストのそれぞれの部分の音声読み上げをそれぞれの部分のそれぞれのスタイルに応じてユーザへ出力するように構成される。 In some embodiments, the processing unit may read aloud the first portion of text in the document to the user using the first set of speech characteristics eg, an audio output unit using the output unit Output to the user using a second set of speech characteristics different from the first set of speech characteristics eg, output unit Used to output through the audio output unit , the speech reading of each part of the text is configured to be output to the user according to the respective style of each part.
いくつかの実施形態では、処理ユニット910は、文書の1つ以上の部分の音声読み上げを出力する間にユーザからの音声コマンドの少なくとも一部分を(例えば、音声コマンド受信ユニット916を用いてオーディオ入力ユニット904を通じて)受け取るように構成される。 In some embodiments, the processing unit may receive at least a portion of a voice command from a user eg, using the voice command receiving unit to output an audio input unit while outputting speech reading of one or more portions of the document.
Configured to receive through いくつかの実施形態では、文書のそれぞれの部分のうちの少なくとも1つは文書のそれぞれの段落である。 In some embodiments, at least one of each part of the document is a respective paragraph of the document. いくつかの実施形態では、文書のそれぞれの部分のうちの少なくとも1つは文書のそれぞれの見出しである。 In some embodiments, at least one of the respective parts of the document is a respective heading of the document.
いくつかの実施形態では、文書のそれぞれの部分のうちの少なくとも1つは文書のそれぞれの文である。 In some embodiments, at least one of the respective parts of the document is a respective sentence of the document. いくつかの実施形態では、文書の第1の部分は第1のスタイルを有し、文書の第2の部分は、第1のスタイルとは別の第2のスタイルを有する。 In some embodiments, the first portion of the document has a first style and the second portion of the document has a second style that is different from the first style.
いくつかの実施形態では、文書の各部分は単一のリンクに関連付けられる。 In some embodiments, each part of the document is associated with a single link. いくつかの実施形態に基づき、図10は、上述した通りの本発明の原理に基づいて構成される電子機器1000の機能ブロック図を示す。この機器の機能ブロックは、本発明の原理を実行するためにハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせにより実施することができる。図10に述べられる機能ブロックは、上記に述べたような本発明の原理を実施するために、組み合わせるか、又はサブブロックに分割することができることが当業者によって理解される。したがって、本明細書における説明は、あらゆる可能な組み合わせ若しくは分割、又は本明細書に述べられる更なる機能ブロックの定義を支持しうるものである。 In accordance with some embodiments, FIG.
図10に示されているように、電子機器1000は、オーディオ入力ユニット1004及びオーディオ出力ユニット1006を含む。いくつかの実施形態では、電子機器1000は、電子文書の1つ以上の部分を表示するように構成されるディスプレイユニット1002を含む。いくつかの実施形態では、電子機器1000は、タッチ感知面ユニット1008上における1つ以上のジェスチャを検出するように構成されるタッチ感知面ユニット1008を含む。電子機器は、オーディオ入力ユニット1004及びオーディオ出力ユニット1006に結合される処理ユニット1010を更に含む。いくつかの実施形態では、処理ユニット1010はまた、ディスプレイユニット1002及びタッチ感知面ユニット1008にも結合される。いくつかの実施形態では、処理ユニット1010は、出力ユニット1012、音声コマンド受信ユニット1014、及び特定ユニット1016を含む。 As shown in FIG.
In some embodiments, the electronic device includes a display unit that is configured to display one or more portions of an electronic document. In some embodiments, the electronic device includes a touch-sensitive surface unit configured to detect one or more gestures on the touch-sensitive surface unit In some embodiments, the processing unit includes an output unit , a voice command receiving unit , and a specific unit 処理ユニット1010は、複数の文書のうちの文書の少なくとも一部分の音声読み上げを(例えば、出力ユニット1012を用いてオーディオ出力ユニット1006を通じて)出力するように構成される。処理ユニット1010は、音声読み上げを出力する間に、ユーザから、特定の基準に該当する文書を要求する音声コマンドを(例えば、音声コマンド受信ユニット1014を用いてオーディオ入力ユニット1004を通じて)受け取るように構成される。処理ユニット1010は、ユーザから音声コマンドを受け取ることに応じて、複数の文書のうち、特定の基準に該当する1つ以上の文書を(例えば、特定ユニット1016を用いて)特定し、1つ以上の特定された文書のそれぞれの文書の少なくとも一部分の音声読み上げを(例えば、出力ユニット1012を用いてオーディオ出力ユニット1006を通じて)出力するように構成される。 The processing unit is configured to output speech reading of at least a portion of the plurality of documents eg, through the audio output unit using the output unit The processing unit is configured to receive a voice command eg, through the audio input unit using the voice command receiving unit requesting a document that meets certain criteria while outputting the speech reading.
Is done. In response to receiving a voice command from the user, the processing unit specifies one or more documents for example, using the specification unit that meet a specific criterion from among a plurality of documents, and one or more Is configured to output a speech reading of at least a portion of each of the identified documents eg, through the audio output unit using the output unit いくつかの実施形態では、特定の基準は、1つ以上の特定された文書は、ユーザによって特定された1人以上の作成者によって作成されていることを必要とする。 In some embodiments, the specific criteria require that one or more specified documents have been created by one or more authors specified by the user.
いくつかの実施形態では、特定の基準は、1つ以上の特定された文書は、特定の文書に関連付けられることを必要とする。 In some embodiments, certain criteria require that one or more identified documents be associated with a particular document. いくつかの実施形態では、特定の基準は、1つ以上の特定された文書は、特定の文書への返信であることを必要とする。 In some embodiments, the specific criteria require that the one or more specified documents are replies to the specific document. いくつかの実施形態では、特定の基準は、1つ以上の特定された文書は、それぞれの作成者からの最後のメッセージを含むことを必要とする。 In some embodiments, certain criteria require that one or more identified documents include the last message from each author.
いくつかの実施形態では、特定の基準は、1つ以上の特定された文書は、ユーザによって特定された特定の日付範囲に該当することを必要とする。 In some embodiments, the specific criteria require that one or more specified documents fall within a specific date range specified by the user.
いくつかの実施形態では、処理ユニット1010は、1つ以上の特定された文書の数を指示する可聴情報を(例えば、出力ユニット1012を用いてオーディオ出力ユニット1006を通じて)出力するように構成される。 In some embodiments, the processing unit is configured to output audible information indicating the number of one or more identified documents eg, through the audio output unit using the output unit いくつかの実施形態では、処理ユニット1010は、それぞれの文書は、1つ以上の特定された文書のうちの最後の文書であることを指示する可聴情報を(例えば、出力ユニット1012を用いてオーディオ出力ユニット1006を通じて)出力するように構成される。 In some embodiments, the processing unit may provide audible information eg, audio output using the output unit indicating that each document is the last document of one or more identified documents.
Through an output unit 上述の記載は、説明の目的のために、特定の実施形態を参照して記載されている。しかし、上述の例示的説明は、網羅的であること、又は本発明を、開示されている寸分違わない形態に限定することを意図されてはいない。多くの変更及び変形が上述の教示に鑑みて可能である。本発明の原理及びその実際的な応用を最良の形で説明し、それによって他の当業者が、想到される特定の用途に好適な種々の改良と共に本発明及び様々な実施形態を最良な形で利用することを可能とするために、これらの実施形態を選択し説明した。 The foregoing description has been described with reference to specific embodiments for illustrative purposes. However, the illustrative descriptions above are not intended to be exhaustive or to limit the invention to the precise forms disclosed.
Many modifications and variations are possible in light of the above teaching. The principles of the present invention and its practical application are best described so that others skilled in the art can best understand the present invention and various embodiments together with various modifications suitable for the particular application envisaged.
These embodiments have been selected and described in order to be able to be used in. 例えば、図6に関して説明されている操作の1つ以上の態様は、図7及び8に関して説明されている操作とともに用いられてもよい(例えば、文書の最後に到達した後に可聴問い合わせを出力すること)。同様に、図7に関して説明されている操作の1つ以上の態様は、図6及び8に関して説明されている操作とともに用いられてもよく、図8に関して説明されている操作の1つ以上の態様は、図6及び7に関して説明されている操作とともに用いられてもよい。簡潔にするために、これらの詳細は繰り返されていない。 For example, one or more aspects of the operations described with respect to FIG.
Similarly, one or more aspects of the operations described with respect to FIG. May be used in conjunction with the operations described with respect to FIGS. For the sake of brevity, these details are not repeated. SOLUTION: An electronic device a, b with one or more processors and memory receives a first document including a plurality of links from web servers The electronic device a, b outputs a voice reading of at least a portion of the first document, and outputs audible information identifying a link of the plurality of links.
In response to outputting the audible information identifying the link, the electronic device a, b receives from a user a voice command regarding the link and, in response to receiving from the user the voice command, outputs a voice reading of at least a portion of a second document associated with the link.
SELECTED DRAWING: Figure 1. These embodiments have been selected and described in order to be able to be used in 例えば、図6に関して説明されている操作の1つ以上の態様は、図7及び8に関して説明されている操作とともに用いられてもよい(例えば、文書の最後に到達した後に可聴問い合わせを出力すること)。同様に、図7に関して説明されている操作の1つ以上の態様は、図6及び8に関して説明されている操作とともに用いられてもよく、図8に関して説明されている操作の1つ以上の態様は、図6及び7に関して説明されている操作とともに用いられてもよい。簡潔にするために、これらの詳細は繰り返されていない。 For example, one or more aspects of the operations described with respect to FIG.
文書内をナビゲートする方法であって、 1つ以上のプロセッサ及びメモリを有する電子機器において、 複数のリンクを含む第1の文書を受信することと、 前記第1の文書の少なくとも一部分の音声読み上げを出力することと、 前記複数のリンクのうちのリンクを特定する可聴情報を出力することと、 前記リンクを特定する前記可聴情報を出力することに応じて、ユーザから前記リンクに関する音声コマンドを受け取ることと、 前記ユーザから前記音声コマンドを受け取ることに応じて、前記リンクに関連付けられる第2の文書の少なくとも一部分の音声読み上げを出力することと、 を含む、方法。 A method for navigating through a document, In an electronic device having one or more processors and memory, Receiving a first document including a plurality of links; Outputting speech reading of at least a portion of the first document; Outputting audible information identifying a link of the plurality of links; Receiving a voice command for the link from a user in response to outputting the audible information identifying the link; In response to receiving the voice command from the user, outputting a speech reading of at least a portion of a second document associated with the link; Including the method.
前記リンクが、前記第1の文書の前記一部分内のテキストに関連付けられる、請求項1に記載の方法。 The method of claim 1, wherein the link is associated with text in the portion of the first document. The method of claim 3, comprising: automatically outputting speech reading of one or more portions of the first document following the text associated with the link. 前記音声コマンドが第1の種類の音声コマンドであり、 前記ユーザから、前記リンクに関する、前記第1の種類とは別の第2の種類の音声コマンドを受け取ることと、 前記ユーザから前記リンクに関する前記第2の種類の前記音声コマンドを受け取ることに応じて、 前記第2の文書から情報を取得することと、及び 前記第2の文書からの前記情報に基づき前記第2の種類の前記音声コマンドに対応する音声情報を出力することと、 を含む、請求項1〜6のいずれか一項に記載の方法。 The voice command is a first type of voice command; Receiving, from the user, a second type of voice command related to the link, different from the first type; In response to receiving the second type of the voice command for the link from the user, Obtaining information from the second document; and outputting voice information corresponding to the second type of voice command based on the information from the second document; The method according to claim 1, comprising: 前記第2の種類の前記音声コマンドが、前記第2の文書の作成者についての情報の要求を含む、請求項7に記載の方法。 The method of claim 7, wherein the second type of voice command includes a request for information about an author of the second document.
前記第2の種類の前記音声コマンドが、前記第2の文書の要約の要求を含む、請求項7〜8のいずれか一項に記載の方法。 9. A method according to any one of claims 7 to 8, wherein the second type of voice command comprises a request for a summary of the second document.
前記ユーザからの音声コマンドに対応する候補リンクとして2つ以上のリンクを特定することと、 前記候補リンクについての可聴情報を出力することと、 前記ユーザから前記候補リンクのうちの単一のリンクの選択を受け取ることと、 を更に含む、請求項1〜9のいずれか一項に記載の方法。 Identifying two or more links as candidate links corresponding to a voice command from the user; Outputting audible information about the candidate link; Receiving a selection of a single link of the candidate links from the user; 前記文書内のテキストの第1の部分の音声読み上げを、第1の音声特性のセットを用いて前記ユーザへ出力することと、 前記文書内の前記テキストの第2の部分の音声読み上げを、前記第1の音声特性のセットとは別の第2の音声特性のセットを用いて前記ユーザへ出力することと、 によって、前記テキストの前記それぞれの部分の音声読み上げを前記それぞれの部分のそれぞれのスタイルに応じて前記ユーザへ出力することを更に含む、請求項11に記載の方法。 Outputting a speech reading of a first portion of text in the document to the user using a first set of speech characteristics; Outputting a speech reading of a second portion of the text in the document to the user using a second set of speech characteristics different from the first set of speech characteristics; The method of claim 11, further comprising: outputting to the user a speech reading of the respective portion of the text according to a respective style of the respective portion.
前記文書の1つ以上の部分の前記音声読み上げを出力する間に、前記ユーザからの前記音声コマンドの少なくとも一部分を受け取ることを更に含む、請求項11〜12のいずれか一項に記載の方法。 The method of any one of claims 11 to 12, further comprising receiving at least a portion of the voice command from the user while outputting the speech reading of one or more portions of the document.
前記文書の前記それぞれの部分のうちの少なくとも1つが、前記文書のそれぞれの段落である、請求項11〜13のいずれか一項に記載の方法。 A method according to any one of claims 11 to 13, wherein at least one of the respective parts of the document is a respective paragraph of the document. 前記文書の前記それぞれの部分のうちの少なくとも1つが、前記文書のそれぞれの見出しである、請求項11〜14のいずれか一項に記載の方法。 A method according to any one of claims 11 to 14, wherein at least one of the respective parts of the document is a respective heading of the document.
前記文書の前記それぞれの部分のうちの少なくとも1つが、前記文書のそれぞれの文である、請求項11〜15のいずれか一項に記載の方法。 A method according to any one of claims 11 to 15, wherein at least one of the respective parts of the document is a respective sentence of the document. 前記文書の第1の部分が第1のスタイルを有し、前記文書の第2の部分が、前記第1のスタイルとは別の第2のスタイルを有する、請求項11〜16のいずれか一項に記載の方法。 The first part of the document has a first style, and the second part of the document has a second style different from the first style.
The method according to item. 前記文書の各部分が単一のリンクに関連付けられる、請求項11〜17のいずれか一項に記載の方法。 A method as claimed in any one of claims 11 to 17, wherein each part of the document is associated with a single link. 前記特定の基準は、前記1つ以上の特定された文書が、前記ユーザによって特定された1人以上の作成者によって作成されていることを必要とする、請求項19に記載の方法。 The method of claim 19, wherein the specific criteria requires that the one or more specified documents have been created by one or more authors specified by the user.
前記特定の基準は、前記1つ以上の特定された文書が、特定の文書に関連付けられることを必要とする、請求項19〜20のいずれか一項に記載の方法。 A method according to any one of claims 19 to 20, wherein the particular criteria require that the one or more identified documents are associated with a particular document. 前記特定の基準は、前記1つ以上の特定された文書が、特定の文書への返信であることを必要とする、請求項19〜21のいずれか一項に記載の方法。 A method according to any one of claims 19 to 21, wherein the specific criteria require that the one or more specified documents are replies to a specific document.
前記特定の基準は、前記1つ以上の特定された文書が、それぞれの作成者からの最後のメッセージを含むことを必要とする、請求項19〜22のいずれか一項に記載の方法。 A method according to any one of claims 19 to 22, wherein the particular criteria require that the one or more identified documents include a last message from each author. 前記特定の基準は、前記1つ以上の特定された文書が、前記ユーザによって特定された特定の日付範囲に該当することを必要とする、請求項19〜23のいずれか一項に記載の方法。 A method according to any one of claims 19 to 23, wherein the specific criteria require that the one or more specified documents fall within a specific date range specified by the user.
前記1つ以上の特定された文書の数を指示する可聴情報を出力することを更に含む、請求項19〜24のいずれか一項に記載の方法。 A method according to any one of claims 19 to 24, further comprising outputting audible information indicating the number of the one or more specified documents.
前記それぞれの文書は前記1つ以上の特定された文書の最後の文書であることを指示する、可聴情報を出力することを更に含む、請求項19〜25のいずれか一項に記載の方法。 A method according to any one of claims 19 to 25, further comprising outputting audible information indicating that the respective document is the last document of the one or more identified documents.
A computer readable storage medium comprising instructions for performing any of the methods of claim ディスプレイ、メモリ、及び前記メモリ内に記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサを有するポータブル電子機器又はコンピュータシステム上のグラフィカルユーザインターフェースであって、請求項1〜26に記載の前記方法のいずれかに従って表示されるユーザインターフェース群を備える、グラフィカルユーザインターフェース。 A graphical user interface on a portable electronic device or computer system having a display, memory, and one or more processors for executing one or more programs stored in the memory, comprising: A graphical user interface comprising a user interface group displayed in accordance with any of the described methods.
請求項1〜26に記載の前記方法のいずれかを実行するための手段を備える、ポータブル電子機器又はコンピュータシステム。 A portable electronic device or computer system comprising means for performing any of the methods of claims ポータブル電子機器又はコンピュータシステムにおいて用いるための情報処理装置であって、請求項1〜26に記載の前記方法のいずれかを実行するための手段を備える、情報処理装置。 An information processing apparatus for use in a portable electronic device or computer system, comprising information processing apparatus for performing any of the methods of claims 請求項1〜26に記載の前記方法のいずれかを実行するように構成される処理ユニットを備える、ポータブル電子機器又はコンピュータシステム。 A portable electronic device or computer system comprising a processing unit configured to perform any of the methods of claims USP true Device, method, and user interface for voice-activated navigation and browsing of a document.
JPA Division JPB2 en JPA true JPA en. JPB2 JPB2 en. JPA Active JPB2 en. Document browsing method, portable electronic device, information processing apparatus and program. USB2 en. EPA2 en. JPB2 en. KRB1 en. CNB en. AUB2 en. HKA1 en. WOA2 en. WOA1 en. Gear type automatic transmission and car using the gear type automatic transmission. JPA en. Device and method for controlling automatic transmission using gear-type mechanism. USA1 en.
Mobile device having human language translation capability with positional feedback. Electronic devices with voice command and contextual data processing capabilities. Systems and methods for integrating third party services with a digital assistant. DEU1 en. System and method for user-specified pronunciation of words for speech synthesis and recognition.
Interpreting and acting upon commands that involve sharing information with remote devices. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant.
TWIB en. Method for processing a multi-part voice command, non-transitory computer readable storage medium and electronic device. KRA en.
Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device. Virtual assistant aided communication with 3rd party service in a communication session. Applying neural network language models to weighted finite state transducers for automatic speech recognition.
DKB1 en. DKA1 en. Transforming data structures and data objects for migrating data between databases having different schemas. Optimizing dialogue policy decisions for digital assistants using implicit feedback. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling.
Natural language understanding using vocabularies with compressed serialized tries. Using dialog and contextual data of a virtual reality environment to create metadata to drive avatar animation. Voice interaction at a primary device to access call functionality of a companion device.
Voice synthesizing method and device therefor and hypertext control method and controller. Net surfing method by means of movable terminal equipment, movable terminal equipment, server system and recording medium. USA en. BGA1 en. Dual purpose, weather resistant data terminal keyboard assembly including audio porting. GBA en. JPSB2 en. JPHB2 en.
The United States Of America As Represented By The Secretary Of The Army. JPSA en. NZA en. Alkylation of aromatic compounds using catalyst with metal component and a zeolite. GBB en. Narrow-bodied, single- and twin-windowed portable laser scanning head for reading bar code symbols.
DED1 en. USREE en. Standard hardware-software interface for connecting any instrument which provides a digital output stream with any digital host computer. USB1 en. Dynamic generation and overlaying of graphic windows for multiple active program storage areas. The Research Foundation Of State University Of New York.
SEL en. DEA1 en. constructed syllable pitch patterns from phonological linguistic unit string data.
Method and device for phonetically encoding Chinese textual data for data processing entry. JPHY2 en. System and method for sound recognition with feature selection synchronized to voice pitch.
Method of editing graphic objects in an interactive draw graphic system using implicit editing actions. Constructing Markov model word baseforms from multiple utterances by concatenating model sequences for word segments. Automatic generation of simple Markov model stunted baseforms for words in a vocabulary. Linear predictive residual representation via non-iterative spectral reconstruction.
Windows 10 remove keyboard language from taskbar free download
Download Google Input Tools Japanese for Windows Japanese Google Input Tool free download offline installer to type in Japanese language button to bring up a Keyboard Input Window. Delete: Select the photos or album that you 1 Select the required application language from the list
Windows 10 remove keyboard language from taskbar free download
Rudi Larno. aspx These are ‘phonetic’ keyboards – you type English characters and get back selected language characters. Amol Khiste. Wouldn’t it be awsome if you could roll your own. You know, a Klingon one for geeks and a a Papiamento one for Arubans. Or a Papiamentu one for Curacao. Bart Kemps. Thank you Scott!! Maybe a little off topic, but I have two adopted Ethiopian children who are rapidly losing their Amharic and wasn’t aware that this was available well, maybe not really off topic ; Betam ahmesugenalew!
Todd Emory. July 27, Speaking of languages, we’ve been asking Handwriting support for Turkish language for years : Still nothing Just having an Alt Gr key on a US keyboard can be very helpful. Of course, it will annoy the heck out of you if you regularly use right Alt. If you would like my driver, you can download it here. July 28, Cool but why is Microsoft doing this? I cannot even add and existing language Traditional Chinese Taiwan so my wife can use it.
Donald Adams. Great to see you advertising the indeed often overlooked language features in globalized MS-Windows, given that you likely have a few more subscribers than Language Center directors. Better still, third parties can extend Windows by writing their own IMEs, many free – and not only Google can manage www. A great additional feature is that Windows 7 language packs not only install proofing tools and change the GUI language. You get also also “free” speech-recognition for languages depending on how you count language variants.
Would be great to have a similar overview for Windows 8 on the MS website. I realize, though: It is not only a great, but also a big organization…. Thomas Plagwitz. July 31, Thank you Scott. As a native Amharic speaker, I found your tip to be very valuable. I was hoping that I could add the Amharic keyboard in my Windows R2 developer machine but was unsuccessful.
I will definitely share this tip with anyone that uses English as a second language though. What I still find weird is that if you RDP to a machine your keyboard layout is changed. So if I RDP from the UK to a US machine I get the US keyboard layout where certain keys are different. This seems like an odd default to me as it will not usually be what the user wants.
There is a registry key to override it but nothing I can see in the RDP setup UI. I assume that MS tries really hard with localization and adjusting to the needs of the customers outside of the US but I constantly see them fail were people are involved who cannot be put in a single region or language or will not stay in the one they first had to pick. Personally I think that the persons who decide about the localization features have a very naive or too simplistic way to look at the problem they are trying to solve.
In my opinion a good idea BUT it has consequences. My keyboard input and language settings are constantly messed up because I use devices with different keyboard layouts. I cannot pick English in Germany? August 05, You should maybe also mention that switching input language also enables spell check and such in the Windows 8 Mail app, etc.
That’s why I for example add English as an input language, even though I can write English fine on my Norwegian keyboard. In some embodiments, the digital assistant system is implemented in user equipment eg, user equipment , FIG. The digital assistant system is just one example of a digital assistant system, and the digital assistant system may have more or fewer components than shown, and may combine two or more components.
It should be noted that or may have different configurations or arrangements of components. The various components shown in FIG. These components communicate with each other through one or more communication buses or signal lines and process them accordingly.
In some embodiments, if the digital assistant is implemented on a stand-alone user equipment, the digital assistant system may include the components described with respect to the user equipment in FIG. Includes any eg, one or more microphones In some embodiments, the digital assistant system represents the server portion of a digital assistant implementation and interacts with the user through a client-side portion that resides on the user equipment eg, user equipment shown in FIG.
The wired communication port s receive and transmit communication signals via one or more wired interfaces, such as Ethernet registered trademark , universal serial bus USB , Firewire registered trademark , and the like. Wireless communication can include multiple GSM, EDGE, CDMA, TDMA, Bluetooth registered trademark , Wi-Fi registered trademark , VoIP, Wi-MAX registered trademark , or any other suitable communication protocol.
Any communication standard, protocol, and technology may be used. いくつかの実施形態では、メモリ302の永続的コンピュータ可読記憶媒体は、オペレーティングシステム318、通信モジュール320、ユーザインターフェースモジュール322、1つ以上のアプリケーション324、及びデジタルアシスタントモジュール326の全て又はサブセットを含むプログラム、モジュール、命令、及びデータ構造を記憶する。1つ以上のプロセッサ304はこれらのプログラム、モジュール、命令、及びデータ構造から/へと、読み出し/書き込みを実行する。 In some embodiments, the persistent computer readable storage medium of memory is a program that includes all or a subset of operating system , communication module , user interface module , one or more applications , and digital assistant module Store modules, instructions, and data structures.
オペレーティングシステム318(例えば、Darwin、RTXC、LINUX、UNIX、OS X、ウィンドウズ(登録商標)、又はVxWorks等の組み込みオペレーティングシステム)は、一般システムタスク(例えば、メモリ管理、記憶装置制御、電力管理等)を制御及び管理するための種々のソフトウェア構成要素及び/又はドライバを含み、種々のハードウェア、ファームウェア、及びソフトウェア構成要素の間の通信を促進する。 Operating system eg, Darwin, RTXC, LINUX, UNIX, OS X, embedded operating systems such as Windows, or VxWorks is a general system task eg, memory management, storage device control, power management, etc.
通信モジュール320は、ネットワーク通信インターフェース308を通じたデジタルアシスタントシステム300とその他の機器との間の通信を促進する。例えば、通信モジュール320は、図2に示される機器104の通信モジュール254と通信してもよい。通信モジュール320はまた、無線回路機構314及び/又は有線通信ポート312によって受信されたデータを処理するための種々のソフトウェア構成要素も含む。 The communication module facilitates communication between the digital assistant system and other devices through the network communication interface For example, the communication module may communicate with the communication module of the device shown in FIG.
Provides an object. For example, if the digital assistant system is implemented on a stand-alone user device, the application may include a user application such as a game, calendar application, navigation application, web browser application, or email application. If the digital assistant system is implemented on a server farm, the application may include, for example, a resource management application, a diagnostic application, or a scheduling application.
Each of these processing modules has access to one or more of the following data and models of digital assistant , or a subset or superset thereof: ontology , vocabulary index , user data , task flow.
Model and service model To achieve the intention Determining a task flow, and to perform tasks flow to achieve the inferred intention. In some embodiments, the digital assistant also takes appropriate action if a satisfactory response is not provided or could not be provided to the user for various reasons.
Or interact with user equipment eg, user equipment in FIG. In some embodiments, the context information also includes the software and hardware status of the device eg, user device in FIG. Includes information about the surrounding environment. For this purpose, it is forwarded to the spoken text STT processing module In some embodiments, the speech text processing module recognizes speech input as a sequence of phonemes, and ultimately a sequence of words or tokens written in one or more languages.
Various acoustic models and language models are used. Implemented using recognition techniques, acoustic models, and language models. In some embodiments, the narrative texting process may be performed at least in part by a third party service or on the user’s device.
When the utterance text processing module obtains the result of the utterance text processing eg, word or token sequence , it passes the result to the natural language processing module for inference intent.
Represents a task that has The associated task flow is a series of programmed actions and steps that the digital assistant system takes to perform a task. From いくつかの実施形態では、自然言語処理はオントロジ360に基づく。オントロジ360は、複数のノードを包含する階層構造であり、各ノードは、「実施可能な意図群」又はその他の「特性群」のうちの1つ以上に関連する「実施可能な意図」又は「特性」のいずれかを表す。上述のように、「実施可能な意図」は、デジタルアシスタントシステム300が実行する能力を有するタスク(例えば、「実施可能」であるか又は実施の対象とすることができるタスク)を表す。「特性」は、実施可能な意図、又は別の特性の下位態様に関連付けられるパラメータを表す。オントロジ360内の実施可能な意図ノードと特性ノードとの間のリンクは、特性ノードによって表されるパラメータは、実施可能な意図ノードによって表されるタスクにどのように関連するのかを定義する。 In some embodiments, natural language processing is based on ontology Any of the “characteristics”.
The link between the actionable intention node and the characteristic node in ontology defines how the parameters represented by the characteristic node are related to the task represented by the actionable intention node.
いくつかの実施形態では、オントロジ360は実施可能な意図ノード及び特性ノードで構成される。オントロジ360内において、各々の実施可能な意図ノードは1つ以上の特性ノードに直接又は1つ以上の中間特性ノードを介してリンクされる。同様に、各特性ノードは1つ以上の実施可能な意図ノードに直接又は1つ以上の中間特性ノードを介してリンクされる。 In some embodiments, ontology is composed of intent nodes and property nodes that can be implemented.
Within ontology , each possible intent node is linked to one or more characteristic nodes either directly or via one or more intermediate characteristic nodes. Similarly, each property node is linked to one or more possible intent nodes directly or via one or more intermediate property nodes. In this description, each domain is associated with a respective operable intent and refers to a group of nodes and relationships between them that are associated with a particular operable intent.
In some embodiments, ontology is made up of many domains. Each domain may share one or more characteristic nodes with one or more other domains. いくつかの実施形態では、オントロジ360は、デジタルアシスタントが理解し、作用する能力を有する全ての定義域(及びしたがって実施可能な意図)を含む。いくつかの実施形態では、オントロジ360は、定義域若しくはノードを追加若しくは除去すること、又はオントロジ360内のノード間の関係を変更することなどによって、変更されてもよい。 In some embodiments, ontology includes all domains and thus possible intents that digital assistants have the ability to understand and act on.
In some embodiments, ontology may be modified, such as by adding or removing domain or nodes, or changing the relationship between nodes in ontology May be included. But you can. Vocabulary index optionally includes words and phrases in different languages.
いくつかの実施形態では、自然言語プロセッサ332は、発語テキスト化処理モジュール330からトークン列(例えば、テキストストリング)を受け取り、どのノードがトークン列内の単語によって暗示されているのかを判定する。いくつかの実施形態では、トークン列内の単語又は成句が(語彙索引344を介して)オントロジ360内の1つ以上のノードに関連付けられることが分かれば、その単語又は成句はそれらのノードを「トリガ」又は「活性化」することになる。複数のノードが「トリガされる」場合には、活性化されたノードの量及び/又は相対的重要度に基づき、自然言語プロセッサ332は実施可能な意図のうちの1つを、ユーザがデジタルアシスタントに実行させようと意図したタスク(又はタスクの種類)として選択することになる。いくつかの実施形態では、最も多く「トリガされた」ノードを有する定義域が選択される。いくつかの実施形態では、最も高い信頼値を有する定義域(例えば、その種々のトリガされたノードの相対的重要度に基づく)が選択される。いくつかの実施形態では、定義域は、トリガされたノードの数及び重要度の組み合わせに基づき選択される。いくつかの実施形態では、ノードを選択する際には、デジタルアシスタントシステム300はユーザからの同様の要求を以前に正確に解釈したかどうか等の追加の因子も考慮される。 In some embodiments, the natural language processor receives a token string eg, a text string from the spoken text processing module and determines which nodes are implied by the words in the token string.
This is selected as a task or task type that is intended to be executed. In some embodiments, the domain with the highest confidence value eg, based on the relative importance of the various triggered nodes is selected. In some embodiments, the domain is selected based on a combination of the number of triggered nodes and the importance.
In some embodiments, when selecting a node, additional factors such as whether the digital assistant system has previously correctly interpreted a similar request from the user are also considered.
いくつかの実施形態では、デジタルアシスタントシステム300はまた、特定の実体の名前も語彙索引344内に記憶する。そのため、これらの名前の1つがユーザ要求内に検出されると、自然言語プロセッサ332は、その名前はオントロジ内の特性又は下位特性の特定のインスタンスを指していると認識できることになる。いくつかの実施形態では、特定の実体の名前は、企業、レストラン、人、映画、及び同様のものの名前である。いくつかの実施形態では、デジタルアシスタントシステム300は、ユーザのアドレス帳、映画データベース、ミュージシャンデータベース、及び/又はレストランデータベース等の、他のデータ源から特定の実体名を検索し、これらを特定することができる。いくつかの実施形態では、自然言語プロセッサ332が、トークン列内の単語は特定の実体の名前(ユーザのアドレス帳内の名前等)であると特定すると、その単語は、ユーザ要求のためにオントロジ内の実施可能な意図を選択する際に追加的な重要性を与えられる。 In some embodiments, the digital assistant system also stores the names of specific entities in the vocabulary index Thus, if one of these names is detected in the user request, the natural language processor will be able to recognize that the name refers to a particular instance of a characteristic or sub-characteristic in the ontology.
In some embodiments, the name of a particular entity is the name of a company, restaurant, person, movie, and the like. Can do. In some embodiments, when the natural language processor identifies a word in the token string as the name of a particular entity such as a name in the user’s address book , the word is ontology for the user request. Additional importance is given in selecting a feasible intention within.
ユーザデータ348は、ユーザ固有語彙、ユーザ設定、ユーザアドレス、ユーザの既定言語及び第二言語、ユーザの連絡先リスト、並びに各ユーザのためのその他の短期的若しくは長期的情報等の、ユーザ固有の情報を含む。自然言語プロセッサ332は、ユーザ入力内に包含されている情報を補完してユーザ意図を更に明確にするためにユーザ固有の情報を用いることができる。例えば、ユーザ要求「私の誕生日パーティに私の友人を招待する」の場合には、自然言語プロセッサ332は、誰が「友人」であり、いつ、及びどこで「誕生日パーティ」は催されるのであろうかを判定するために、こうした情報を自分の要求内で明示的に提供するようにユーザに要請する代わりに、ユーザデータ348にアクセスすることができる。 User data may be user specific such as user specific vocabulary, user settings, user address, user default language and second language, user contact list, and other short or long term information for each user.
Contains information. The natural language processor can use user-specific information to complement the information contained in the user input to further clarify the user intent.
Instead of asking the user to explicitly provide such information within his request, user data can be accessed to determine whether or not to. In some embodiments, the structured query includes parameters for one or more nodes in the domain for possible intent, at least some of the parameters being specified in the user request. Specific information and requirements are entered. Based on the information contained within the user’s speech, the natural language processor may generate a partially structured query for the restaurant reservation domain.
However, in this example, the user’s remark does not contain enough information to complete the structured query associated with the domain. In some embodiments, the natural language processor inputs the received context information into some parameters of the structured query. Is configured to perform one or more of the following: In some embodiments, the various procedures necessary to complete these tasks are provided in taskflow model In some embodiments, the task flow model includes a procedure for obtaining additional information from the user and a task flow for performing actions associated with possible intentions.
It may be necessary to start the dialog. When such interaction is required, the task flow processor calls the dialog processing module to engage in a dialog with the user. Pass to processor 場合によっては、タスクフロープロセッサ336は、1つ以上の曖昧な特性を有する構造化されたクエリを受け取ることがある。例えば、「メッセージを送信する」定義域のための構造化されたクエリは、意図された受信者は「Bob」であることを指示する場合があり、ユーザは、「Bob」という名前の連絡先を複数有する場合がある。タスクフロープロセッサ336は、ダイアログプロセッサ334が、構造化されたクエリのこの特性の曖昧さを除去するように要求することになる。その結果として、ダイアログプロセッサ334は「どのBobですか?」とユーザに尋ね、ユーザが選び得る「Bob」という名前の連絡先のリストを表示してもよい(又は読み上げてもよい)。 In some cases, taskflow processor may receive a structured query having one or more ambiguous characteristics.
May have a plurality. The taskflow processor will request that the dialog processor remove the ambiguity of this property of the structured query. タスクフロープロセッサ336が、実施可能な意図のための構造化されたクエリを完成させると、タスクフロープロセッサ336は、実施可能な意図に関連付けられる最終的なタスクの実行に進む。それに応じて、タスクフロープロセッサ336は、構造化されたクエリ内に包含されている特定のパラメータに応じてタスクフローモデル内のステップ及び命令を実行する。例えば、「レストラン予約」の実施可能な意図のためのタスクフローモデルは、レストランと連絡をとり、特定の時間に特定の同行人数のための予約を実際に希望するためのステップ及び命令を含み得る。例えば、{レストラン予約、レストラン=ABC Cafe、日付=3/12/2012、時間=午後7時、同行人数=5}等の構造化されたクエリを用いて、タスクフロープロセッサ336は、(1)ABC Cafeのサーバ、又はABC Cafe等の複数のレストランのための予約を受け入れるように構成されたレストラン予約システムにログオンするステップ、(2)ウェブサイト上のフォーム内に日付、時間、及び同行人数情報を入力するステップ、(3)フォームを送信するステップ、並びに(4)ユーザのカレンダー内に予約のためのカレンダー項目を記入するステップ、を実行してもよい。 When taskflow processor completes a structured query for an implementable intent, taskflow processor proceeds to execute a final task associated with the implementable intent.
In response, taskflow processor executes steps and instructions in the taskflow model in response to specific parameters included in the structured query. Use the aid of a processor “. For example, the service processor can make calls, set calendar items, invoke map searches, invoke or interact with other user applications installed on user equipment, as well as third party services. It can act on behalf of the task flow processor to invoke or interact with eg, a restaurant reservation portal, social networking website, banking portal, etc.
In some embodiments, the protocols and application programming interfaces APIs required by each service may be specified by the respective service model in service model group The service processor accesses the appropriate service model for the service and generates a request for the service according to the protocol and API required by the service associated with the service model.
例えば、レストランがオンライン予約サービスを可能にしている場合には、レストランは、予約を行うために必要なパラメータ、及び必要なパラメータの値をオンライン予約サービスへ伝達するためのAPIを指定するサービスモデルを提出することができる。タスクフロープロセッサ336によって要求されると、サービスプロセッサ338は、サービスモデル群356内に記憶されているウェブアドレスを用いてオンライン予約サービスとのネットワーク接続を確立し、必要な予約のパラメータ(例えば、時間、日付、同行人数)を、オンライン予約サービスのAPIに従う書式でオンライン予約インターフェースへ送信することができる。 For example, if a restaurant enables an online reservation service, the restaurant may specify a service model that specifies parameters necessary for making a reservation and an API for communicating the values of the necessary parameters to the online reservation service.
Can be submitted. When requested by the taskflow processor , the service processor establishes a network connection with the online reservation service using the web address stored in the service model group and the necessary reservation parameters eg, time , Date, number of accompanying persons can be transmitted to the online reservation interface in a format according to the API of the online reservation service.
いくつかの実施形態では、ユーザの意図を推測して明確にし、ユーザ意図を更に明らかにして絞り込むための情報を入手し、ユーザの意図を達成するべく応答を最終的に生成する(例えば、ユーザに出力を提供するか、又はタスクを完了する)ために、自然言語プロセッサ332、ダイアログプロセッサ334、及びタスクフロープロセッサ336は集合的かつ反復的に用いられる。 In some embodiments, guessing and clarifying the user intent, obtaining information to further clarify and narrow the user intent, and finally generate a response to achieve the user intent eg, user The natural language processor , the dialog processor , and the task flow processor are used collectively and iteratively to provide output or complete tasks.
If the user request asks for an answer to the information, the confirmation response presents the requested information to the user. In some embodiments, the digital assistant also asks the user to indicate whether the user is satisfied with the response created by the digital assistant 図4A〜4Nは、いくつかの実施形態に係る電子機器(例えば、図2に関して説明されているユーザ機器104又は図3に関して説明されている独立型機器300)上に表示される例示的なユーザインターフェースを示す。 4A-4N are exemplary users displayed on an electronic device according to some embodiments eg, user device described with respect to FIG.
Indicates the interface. 図4A〜4Jは、いくつかの実施形態に係る1つ以上の文書内のナビゲート及びブラウジングに関連付けられる例示的なユーザインターフェースを示す。 4A-4J illustrate an exemplary user interface associated with navigating and browsing within one or more documents according to some embodiments. 図4Aは、第1の文書の一部分を包含する例示的なユーザインターフェースを示す。いくつかの実施形態では、第1の文書は、例えば下線を用いて指示される複数のリンク(例えば、「新しい国家」、「内戦」、「激戦地」、及び「その地の一部」)を含む。 FIG. In some embodiments, the first document may include a plurality of links e.
図4Aはまた、いくつかの実施形態では、第1の文書の音声読み上げを出力するのに先立って、電子機器は、第1の文書上の現在の位置を指示する可聴情報及び/又は第1の文書についての情報を含む可聴情報を出力することも示している。例えば、電子機器は、読み上げられる第1の文書の部分は第1の文書の冒頭であること、又は電子機器は音声読み上げをまさに出力しようとしていることを指示するオーディオ信号(例えば、「ビープ」)又は音声指示を出力してもよい。加えて、又は代わりに、電子機器は、第1の文書の題名、作成者、日付、及び出典等の、第1の文書についての情報を出力してもよい。 FIG. Alternatively, a voice instruction may be output. In addition, or alternatively, the electronic device may output information about the first document, such as the title, creator, date, and source of the first document.
図4Bは、電子機器が、テキスト「87年前、私たちの先祖は、この大陸に、自由という理念によってうち建てられ、人は皆、平等に造られているという命題に捧げられた」に対応する第1の文書の一部分の音声読み上げを出力することを示す。 Figure 4B shows that the electronic device was dedicated to the text “87 years ago, our ancestors were built on this continent by the philosophy of freedom and all people were built equally. 図4Cは、電子機器が、テキスト「新しい国家」に関連付けられるリンクを特定する可聴情報を出力することを示す。例えば、電子機器は、単語「リンク」の音声信号、及び/又は「ビープ」のようなオーディオ信号を出力する。いくつかの実施形態では、用語「リンク」は、リンクされている文書のロケーションを包含するメタデータを指す。いくつかの実施形態では、用語「リンク」はハイパーテキストアンカを含む。音声信号及びオーディオ信号は、リンクに関連付けられるテキストの音声読み上げを出力する前又は後に出力されてもよい。いくつかの実施形態では、電子機器はまた、リンクされている文書の題名、作成者、日付、及び出典等の、リンクについての情報も出力する。 FIG.
The audio signal and the audio signal may be output before or after outputting a text-to-speech reading associated with the link. In some embodiments, the electronic device also outputs information about the link, such as the title, author, date, and source of the linked document.
図4Dは、電子機器が、リンクに関連付けられるテキストの後に続く第1の文書の一部分の音声読み上げを出力することを示す。 FIG. いくつかの実施形態では、電子機器はユーザから音声コマンドを受け取る。いくつかの実施形態では、電子機器は、電子機器が音声信号、オーディオ信号、リンクについての情報、及び/若しくはリンクに関連付けられるテキストの音声読み上げを出力する間か、一時停止の最中か、又は電子機器が、リンクに関連付けられるテキストの後に続く文書の一部分の音声読み上げを出力する間に、ユーザから音声コマンドを受け取る。いくつかの実施形態では、電子機器は、そのリンクとは別の第2のリンクについての音声信号及び/又はオーディオ信号を出力するのに先立って、ユーザから音声コマンドを受け取る。 In some embodiments, the electronic device receives a voice command from the user.
In some embodiments, the electronic device stores the last spoken portion of the document. 図4Eは、電子機器が、リンクされている文書の一部分を表示し、リンクされている文書の一部分の音声読み上げを出力することを示す。いくつかの実施形態では、リンクされている文書の音声読み上げを出力するのに先立って、電子機器は、文書上の現在の位置を指示する可聴情報及び/又は文書についての情報を含む可聴情報を出力する。例えば、電子機器は、読み上げられる文書の部分は文書の冒頭であること、又は電子機器は音声読み上げをまさに出力しようとしているところであることを指示するオーディオ信号(例えば、「ビープ」)又は音声指示を出力してもよい。加えて、又は代わりに、電子機器は、文書の題名、作成者、日付、及び出典等の、文書についての情報を出力してもよい。更に、電子機器は、読み上げられる文書の部分は見出し、新しい行、新しい文、及び/又は新しい段落であることを指示するオーディオ信号又は音声指示を出力してもよい。 FIG.
It may be output. Additionally or alternatively, the electronic device may output information about the document, such as the document title, author, date, and source. 図4Fは、電子機器が、リンクされている文書の後続の部分の音声読み上げを更に出力することを示す。同様に、電子機器は、リンクされている文書の残りの部分の音声読み上げを出力し続けてもよい。 FIG. Similarly, the electronic device may continue to output speech readings for the remainder of the linked document.
図4Gは、電子機器が、リンクされている文書の最後の文の音声読み上げを出力することを示す。 FIG. いくつかの実施形態では、電子機器が、リンクされている文書の1つ以上の部分の音声読み上げを出力する間に、電子機器はユーザから、第1の文書へ戻るナビゲーションを要求する音声コマンドを受け取る。図4Hは、それに応じて、電子機器は第1の文書の1つ以上の部分を表示し、第1の文書の一部分の音声読み上げを出力することを示す。 In some embodiments, the electronic device issues a voice command requesting navigation back to the first document from the user while the electronic device outputs speech reading of one or more portions of the linked document. いくつかの実施形態では、電子機器は、第1の文書へナビゲートして戻ることについての音声問い合わせを出力する。いくつかの実施形態では、電子機器は、リンクされている文書の最後の文の音声読み上げを出力した後に、第1の文書へナビゲートして戻ることについての音声問い合わせを出力する。ユーザが、第1の文書へ戻るナビゲーションを要求する音声コマンドを提供すると、電子機器は、以上に説明されたように、第1の文書の一部分の音声読み上げを出力する(すなわち、第1の文書へナビゲートして戻る)。代替として、いくつかの実施形態では、例えば、電子機器が、リンクされている文書の音声読み上げの出力を完了すると、電子機器は、ユーザから音声コマンドを受け取ることなく第1の文書へ自動的にナビゲートして戻る。 In some embodiments, the electronic device outputs a voice query about navigating back to the first document.
In some embodiments, the electronic device outputs a spoken inquiry about navigating back to the first document after outputting a speech reading of the last sentence of the linked document. When the user provides a voice command requesting navigation back to the first document, the electronic device outputs a spoken reading of a portion of the first document as described above ie, the first document.
Navigate back to. Alternatively, in some embodiments, for example, when the electronic device completes the spoken output of the linked document, the electronic device automatically enters the first document without receiving a voice command from the user. Navigate back. いくつかの実施形態では、電子機器が第1の文書の音声読み上げの出力を再開するとき、電子機器は、第1の文書の、最後に音声で読み上げられた部分に対応する第1の文書の一部分の音声読み上げの出力を開始する。いくつかの実施形態では、電子機器は、リンクに関連付けられるテキストの音声読み上げを出力することによって、再開する。いくつかの実施形態では、電子機器は、リンクに関連付けられるテキストの後に続く第1の文書の一部分の音声読み上げを出力することによって、再開する。いくつかの実施形態では、電子機器は、リンクに関連付けられるテキストを含む文の音声読み上げを出力することによって、再開する。いくつかの実施形態では、電子機器は、リンクに関連付けられるテキストを含む段落の音声読み上げを出力することによって、再開する。 In some embodiments, when the electronic device resumes outputting spoken first speech for the first document, the electronic device may have the first document corresponding to the last spoken portion of the first document.
Start outputting a part of speech. In some embodiments, the electronic device resumes by outputting a text-to-speech reading associated with the link.
In some embodiments, the electronic device resumes by outputting a speech reading of a portion of the first document that follows the text associated with the link. In some embodiments, the electronic device resumes by outputting a text-to-speech that includes text associated with the link. In some embodiments, the electronic device resumes by outputting a text-to-speech reading that includes text associated with the link.
図4Iは、電子機器が第1の文書内の次の段落の一部分の音声読み上げを出力することを示す。いくつかの実施形態では、次の段落の一部分の音声読み上げを出力するのに先立って、電子機器は、文書上の現在の位置を指示する可聴情報を出力する。例えば、電子機器は、読み上げられる文書の部分は新しい行、新しい文、及び/又は新しい段落であることを指示するオーディオ信号又は音声指示を出力してもよい。 FIG. In some embodiments, the electronic device outputs audible information indicating the current position on the document prior to outputting the speech reading of a portion of the next paragraph.
図4Jは、いくつかの実施形態では、文書は、それぞれのスタイルを有する複数の部分を含むことを示す。換言すれば、文書の第1の部分は第1のスタイルを含んでよく、文書の第2の部分は第2のスタイルを含む。例えば、図4Jに示されている文書の第1の段落は第1のスタイルを有し(例えば、段落は非イタリック体のフォントが使われている)、文書の後続の段落は、第1のスタイルとは別の第2のスタイルを有する(例えば、段落はイタリック体のフォントが使われている)。電子機器は、第1の音声特性のセット(例えば、成人女性の音声)を用いた文書の第1の部分の音声読み上げ、及び第2の音声特性のセット(例えば、成人男性の音声)を用いた文書の第2の部分の音声読み上げを出力する。音声特性は、ピッチ、速度、及び音量のうちの1つ以上、並びに/又は例えば、性別(例えば、男性若しくは女性)並びに年齢(例えば、成人若しくは子ども)に基づき分類される話者の特定グループに典型的な特性を含んでもよい。 FIG.
In other words, the first part of the document may include a first style and the second part of the document includes a second style. For example, the first paragraph of the document shown in FIG.
The electronic device uses the first set of voice characteristics eg, adult female voice to read the first part of the document, and uses the second set of voice characteristics eg, adult male voice.
Output aloud reading of the second part of the document. It may include typical characteristics. 図4K〜4Nは、いくつかの実施形態に係る1つ以上の文書を特定することに関連付けられる例示的なユーザインターフェースを示す。図4K〜4Nに示されている例示的なユーザインターフェースは電子メールメッセージを含んでいるが、本の章、百科事典の見出し項目など等の、他の形式の文書に類似の方法を用いることができる。 4K-4N illustrate exemplary user interfaces associated with identifying one or more documents according to some embodiments.
The exemplary user interface shown in FIGS. it can. 図4Kは電子メッセージの例示的なユーザインターフェースを示す。電子機器はメッセージの少なくとも一部分の音声読み上げを出力する(例えば、「Davidからあなた、John、Karen、及びPaul宛の電子メール。件名、新機能。メッセージには次のように書かれています、『これはとてもよさそうですよ。チームの皆さんはどう思いますか?』」)。 FIG. Subject, new features. The message says: This looks very good, what do your team think? いくつかの実施形態では、電子機器はユーザから、特定の基準に該当する1つ以上の文書を要求する音声コマンドを受け取る。例えば、いくつかの実施形態では、特定の基準は、1つ以上の文書は1人以上の作成者によって作成されていることである(例えば、「Davidからの電子メールメッセージを探す」、「David、John、Karen、及びPaulからの電子メールメッセージを探す」、「この電子メールのアドレスからの電子メールメッセージを探す」等)。他の実施形態では、特定の基準は、1つ以上の文書は特定の文書に関連付けられることである(例えば、「このスレッド内の電子メールメッセージを探す」、「この電子メールへの返信を探す」等)。更に他の実施形態では、特定の基準は、1つ以上の文書は特定の文書への返信であることである。なお他の実施形態では、特定の基準は、1つ以上の文書はそれぞれの作成者からの最後のメッセージを含むことである(例えば、「Davidからの最後の電子メールを探す」)。いくつかの実施形態では、特定の基準は、1つ以上の文書はそれぞれの作成者からの最初のメッセージを含むことである。 In some embodiments, the electronic device receives a voice command from a user requesting one or more documents that meet certain criteria.
In yet another embodiment, the specific criteria is that one or more documents are replies to a specific document. In some embodiments, the particular criteria is that one or more documents include an initial message from each author.
In some embodiments, a particular date range corresponds to a single date. 図4Lは、ユーザが、特定の作成者、例えば、Davidによって作成された電子メールメッセージを要求することに応じて表示される例示的なユーザインターフェースを示す。電子機器は電子メールメッセージのリストの音声読み上げを出力する。いくつかの実施形態では、電子機器は、リスト内の電子メールメッセージの数を指示する可聴情報を出力する。 FIG.
The electronic device outputs a spoken reading of the list of email messages. In some embodiments, the electronic device outputs audible information indicating the number of email messages in the list. 図4Mは、ユーザが、以前に表示された電子メールメッセージへの返信を要求することに応じて表示される代替的なユーザインターフェースを示す。電子機器は返信のリストの音声読み上げを出力する。いくつかの実施形態では、電子機器は、リスト内の電子メールメッセージの数を指示する可聴情報を出力する。 FIG. The electronic device outputs a speech reading of the reply list. いくつかの実施形態では、電子機器はリスト(例えば、図4L又は図4Mに示されているリスト)内の電子メールメッセージの音声読み上げを出力する。いくつかの実施形態では、電子機器がリスト内の最後の電子メールの音声読み上げを出力する際には、電子機器は、読み上げられる電子メールはリスト内の最後の電子メールであることを指示する可聴情報を出力する。 In some embodiments, the electronic device outputs a speech reading of an email message in a list eg, the list shown in FIG.
In some embodiments, when the electronic device outputs a speech-to-speech for the last email in the list, the electronic device may audibly indicate that the email being read is the last email in the list. Output information. In some embodiments, the electronic device does not include any display. 図5は、いくつかの実施形態に係る電子機器(例えば、図2に関して説明されているユーザ機器104又は図3に関して説明されている独立型機器300)によって実行される文書内をナビゲートするための操作を示すフローチャートである。いくつかの実施形態では、電子機器はポータブル電子機器を含む。いくつかの実施形態では、電子機器はコンピュータシステムを含む。 FIG.
It is a flowchart which shows operation of. In some embodiments, the electronic device includes a portable electronic device. In some embodiments, the electronic device includes a computer system. これらの操作は単なる例示に過ぎず、種々の実施形態では、より少数の、又はより少ない操作が電子機器によって実行されてもよい。 These operations are merely exemplary, and in various embodiments, fewer or fewer operations may be performed by the electronic device. いくつかの実施形態では、電子機器は第1の文書を受信する(502)。 In some embodiments, the electronic device receives the first document 電子機器は文書の一部分の音声読み上げを出力する(504)(例えば、図4B)。 The electronic device outputs a reading aloud of a portion of the document eg, FIG.
いくつかの実施形態では、電子機器は、文書のその部分はリンクを含むかどうかを判定する(506)。文書のその部分がリンクを含む場合には、電子機器は、複数のリンクのうちのリンクを特定する可聴情報(例えば、図4Cに関して説明されたように、単語「リンク」の音声出力若しくはオーディオ信号「ビープ」、並びに/又はリンクされている文書の題名、作成者、日付、及び出典等の、リンクについての情報)を出力する(508)。 In some embodiments, the electronic device determines whether the portion of the document includes a link いくつかの実施形態では、電子機器はユーザから音声コマンドを受け取る。いくつかの実施形態では、電子機器は、電子機器は音声コマンドを受け取ったかどうかを判定する(510)。 In some embodiments, the electronic device receives a voice command from the user.
In some embodiments, the electronic device determines whether the electronic device has received a voice command. いくつかの実施形態では、電子機器が音声コマンドを受け取ると、電子機器は、受け取られた音声コマンドはナビゲーションコマンドであるかどうか(例えば、受け取られた音声コマンドは、リンクに関連付けられる第2の文書(すなわち、リンクされている文書)へのナビゲーションの要求を含むかどうか)を判定する(512)。受け取られた音声コマンドが、リンクされている文書へのナビゲーションの要求を含む場合には、電子機器は、リンクされている文書を取得する(514)。次に、電子機器は、リンクされている文書の1つ以上の部分の音声読み上げを出力する(504)(例えば、図4E)。 In some embodiments, when the electronic device receives a voice command, the electronic device determines whether the received voice command is a navigation command eg, the received voice command is a second document associated with the link.
Ie, whether it includes a request for navigation to the linked document If the received voice command includes a request for navigation to the linked document, the electronic device obtains the linked document Next, the electronic device outputs a text-to-speech reading of one or more portions of the linked document eg, FIG.
いくつかの実施形態では、電子機器が音声コマンドを受け取ると、電子機器は、受け取られた音声コマンドは情報コマンドであるかどうか(例えば、受け取られた音声コマンドは、リンクされている文書についての情報の要求を含むかどうか)を判定する(516)。受け取られた音声コマンドが、「作成者は誰か」等の、リンクされている文書についての情報(例えば、題名、作成者、日付、出典、要旨、要約、最初の文、最初の段落等)の要求を含む場合には、電子機器は、要求されている情報を取得する(518)。いくつかの実施形態では、要求されている情報の少なくとも一部分は、リンクされている文書から入手される(例えば、題名、作成者、日付、及び要旨)。いくつかの実施形態では、要求されている情報の少なくとも一部分は、リンクされている文書を処理することによって入手される(例えば、リンクされている文書を要約すること)。いくつかの実施形態では、要求されている情報の少なくとも一部分はサードパーティサーバによって提供される(例えば、リンクされている文書の批評)。電子機器は、要求されている情報の音声読み上げを出力する(520)。他の実施形態では、電子機器は、要求されている情報の少なくとも一部分を、リンクされている文書のメタデータから受け取るか、又は詳細を得るために、リンクされている文書に関連付けられる他のソースから情報を取得する。 In some embodiments, when the electronic device receives a voice command, the electronic device determines whether the received voice command is an information command eg, the received voice command is information about a linked document.
Whether the request is included If so, the electronic device obtains the requested information In some embodiments, at least a portion of the requested information is obtained from linked documents eg, title, author, date, and gist. In some embodiments, at least a portion of the requested information is obtained by processing the linked document eg, summarizing the linked document.
In some embodiments, at least a portion of the requested information is provided by a third party server eg, review of linked documents. The electronic device outputs a voice reading of the requested information In other embodiments, the electronic device receives at least a portion of the requested information from the metadata of the linked document or other source associated with the linked document to obtain details.
Get information from. いくつかの実施形態では、ユーザが、2つの隣接するリンクの間、又は2つの隣接するリンクの直後に音声コマンドを提供した場合には、電子機器は、2つのリンクを、音声コマンドに対応する候補リンクとして特定する。ユーザの音声コマンドは、2つの隣接するリンクの1つ目のリンク又は2つ目のリンクに向けられている可能性があるため、ユーザの音声コマンドはどちらのリンクに対して実行されるべきであるかについて明らかにする必要があり得る。いくつかの実施形態では、電子機器は、候補リンクについての可聴情報、及び/又はユーザはどちらのリンクに対して音声コマンドを実行したいのかについての可聴問い合わせを出力する。例えば、電子機器が、文「学校Aと学校Bとの次の試合は3月3日にあります」の音声読み上げを出力する間に、ユーザは音声コマンド「リンクをたどる」を提供する。いくつかの実施形態では、電子機器は可聴問い合わせ「どのリンクですか?」を出力し、ユーザから後続の音声コマンドを受け取る。後続の音声コマンドが「学校B」である場合には、電子機器は、テキスト「学校B」にリンクされている文書を取得し、リンクされている文書の一部分の音声読み上げを出力する。 In some embodiments, if the user provides a voice command between two adjacent links or immediately after the two adjacent links, the electronic device can respond to the two links with the voice command.
Specify as a candidate link. Since the user voice command may be directed to the first link or the second link of two adjacent links, the user voice command should be executed for which link It may be necessary to clarify what is. いくつかの実施形態では、文書のそれぞれの部分の音声読み上げを出力した後、電子機器は、文書の最後に到達したかどうか(例えば、電子機器は全文書の音声読み上げを出力したかどうか)を判定する(522)。文書の最後に到達していなければ、電子機器は文書の後続の部分の音声読み上げを出力する(504)。いくつかの実施形態では、文書の最後に到達した場合には、電子機器はユーザからのナビゲーションコマンドを待つ。電子機器がユーザから、以前の文書又は新しい文書へのナビゲーションを要求するナビゲーションコマンドを受け取ると(524)、電子機器は以前の文書又は新しい文書を取得する(526)。上述したように、これらの操作(例えば、操作522、524、及び526等)はサーバ又はモバイル機器によって実行されてもよい。いくつかの実施形態では、ユーザからナビゲーションコマンドを受け取るのに先立って、電子機器は、(例えば、図4Gに関して説明されたように)ユーザは別の文書へナビゲートしたいのかどうかについての音声問い合わせを出力する。いくつかの実施形態では、ユーザが別の文書へナビゲートしたくない場合には、電子機器は音声読み上げの出力を停止する。 In some embodiments, after outputting the speech reading for each part of the document, the electronic device has reached the end of the document eg, whether the electronic device has output a speech reading of the entire document.
Determine If the end of the document has not been reached, the electronic device outputs a speech reading of the subsequent portion of the document In some embodiments, when the end of the document is reached, the electronic device waits for a navigation command from the user. When the electronic device receives from the user a navigation command requesting navigation to a previous document or a new document , the electronic device obtains the previous document or the new document As described above, these operations eg, operations , , and , etc.
may be performed by a server or mobile device. In some embodiments, prior to receiving a navigation command from the user, the electronic device makes a voice query as to whether the user wants to navigate to another document eg, as described with respect to FIG.
In some embodiments, if the user does not want to navigate to another document, the electronic device stops outputting speech. 図6は、いくつかの実施形態に係る電子機器(例えば、図2に関して説明されているユーザ機器104又は図3に関して説明されている独立型機器300)によって実行される文書をブラウズするための操作を示すフローチャートである。いくつかの実施形態では、電子機器はポータブル電子機器を含む。いくつかの実施形態では、電子機器はコンピュータシステムを含む。 FIG. It is a flowchart which shows. いくつかの実施形態では、電子機器は、複数の部分を有する文書を受信する(602)。部分のうちの少なくともいくつかはそれぞれのメタデータに関連付けられる。いくつかの実施形態では、それぞれのメタデータは文書の構造(例えば、段落、文、見出し、スタイル等)を指示する。 In some embodiments, the electronic device receives a document having a plurality of parts At least some of the portions are associated with respective metadata.
In some embodiments, each metadata indicates the structure of the document eg, paragraph, sentence, heading, style, etc. 電子機器は文書のそれぞれの部分の音声読み上げを出力する(604)。文書のそれぞれの部分の音声読み上げを出力する間、電子機器は各個それぞれの部分を、その部分のそれぞれのメタデータに基づき可聴的に区別する。例えば、電子機器は、それぞれの部分はサインポストに対応するかどうかを判定する(606)。本明細書で使用するとき、サインポストは文書内の所定のロケーション又は所定の形式のロケーションを指す。いくつかの実施形態では、それぞれの部分がサインポストに対応する場合には、電子機器は、その部分はサインポストに対応するかどうかを指示するための音声信号又はオーディオ信号を出力する(608)。例えば、いくつかの実施形態では、新しい段落の開始時に、電子機器は、新しい段落の冒頭を指示するための音声信号又はオーディオ信号を出力する。同様に、いくつかの実施形態では、節の冒頭若しくは最後を指示するため、並びに/又はブックマークを指示するための音声信号又はオーディオ信号が用いられる。 The electronic device outputs a speech reading of each part of the document While outputting the speech-to-speech for each part of the document, the electronic device audibly distinguishes each individual part based on its respective metadata.
For example, the electronic device determines whether each part corresponds to a sign post As used herein, a sign post refers to a predetermined location or type of location within a document.
In some embodiments, if each portion corresponds to a sign post, the electronic device outputs an audio or audio signal to indicate whether the portion corresponds to a sign post 本記事では、Windows 10のキーボードの設定や割り当て方法、トラブルシューティングをご紹介します。 より快適な作業環境を得るために、キーボードを好みに合わせて変更してみましょう。. Windows 10のキーボードの設定 今回は、Windows 10 Ver. エレコム キーボード 有線 メンブレン 薄型 フルキーボード ブラック TK-FCMXBK エレコム Amazonで価格を見る. 以前のバージョンのMicrosoft IMEで割り当てる. ショートカットでシャットダウンする 下記記事では、キーボードでシャットダウンするショートカットキーをご紹介しています。 Windows 10でシャットダウンをショートカットで行う方法.
英語キーボードへ変更する 英語キーボードへ変更する手順は、「レイアウト・配列を変更する」セクションをご参照ください。. CoolBlockInputLiteでロックする CoolBlockInputLiteは、パソコンのキーボードとマウスをロックするフリーソフトです。 インストールせずに使用でき、タスクトレイからすぐにロックできます。.
by
Tags:
Leave a Reply