WRAP YOUR MIND around NEURAL NETWORKS

artificial intelligence is playing an ever increasing function in the lives of civilized nations, though most citizens most likely don’t recognize it. It’s now commonplace to speak with a computer when calling a business. Facebook is ending up being frightening precise at acknowledging faces in uploaded photos. Physical interaction with wise phones is ending up being a thing of the past… with Apple’s Siri as well as Google Speech, it’s slowly however surely ending up being easier to just talk to your phone as well as tell it what to do than typing or touchingアイコン。 try this if you haven’t before — if you have an Android phone, state “OK Google”, complied with by “Lumos”.魔法です!

Advertisements for products we’re thinking about appear on our social network accounts as if something is reading our minds. reality is, something is reading our minds… though it’s difficult to pin down precisely what that something is. An advertisement may appear for something that we want, even though we never realized we desired it up until we see it. This is not coincidental, however stems from an AI algorithm.

At the heart of many of these AI applications lies a process understood as Deep Learning. There has been a great deal of talk about Deep discovering lately, not only right here on Hackaday, however around the interwebs. as well as like most things associated to AI, it can be a bit challenging as well as difficult to comprehend without a strong background in computer science.

If you’re familiar with my quantum theory articles, you’ll understand that I like to take challenging subjects, strip away the complication the very best I can as well as explain it in a method that anyone can understand. It is the goal of this article to apply a similar approach to this concept of Deep Learning. If neural networks make you cross-eyed as well as machine discovering provides you nightmares, checked out on. You’ll see that “Deep Learning” seems like a daunting subject, however is truly just a $20 term utilized to explain something whose underpinnings are fairly simple.

Machine Learning

When we program a machine to perform a task, we compose the directions as well as the machine performs them. For example, LED on… LED off… there is no requirement for the machine to understand the expected result after it has completed the instructions. There is no reason for the machine to understand if the LED is on or off. It just does what you told it to do. With machine learning, this process is flipped. We tell the machine the result we want, as well as the machine ‘learns’ the directions to get there. There are a number of methods to do this, however let us focus on an simple example:

Early neural network from MIT
If I were to ask you to make a bit robot that can guide itself to a target, a simple method to do this would be to put the robot as well as target on an XY Cartesian plane, as well as then program the robot to go so many units on the X axis, as well as then so many units on the Y axis. This simple technique has the robot just bring out instructions, without really understanding where the target is.  It works only when you understand the coordinates for the starting point as well as target. If either changes, this approach would not work.

Machine discovering enables us to offer with altering coordinates. We tell our robot to discover the target, as well as let it figure out, or learn, its own directions to get there. One method to do this is have the robot discover the distance to the target, as well as then move in a random direction. Recalculate the distance, move back to where it started as well as record the distance measurement. Repeating this process will provide us a number of distance measurements after moving from a fixed coordinate. After X amount of measurements are taken, the robot will move in the direction where the distance to the target is shortest, as well as repeat the sequence. This will ultimately enable it to reach the target. In short, the robot is just utilizing trial-and-error to ‘learn’ exactly how to get to the target. See, this stuff isn’t so difficult after all!

This “learning by trial-and-error” concept can be represented abstractly in something that we’ve all heard of — a neural network.

Neural Networks For Dummies

Neural networks get their name from the mass of neurons in your noggin. While the general network is absurdly complex, the operation of a single neuron is simple. It’s a cell with a number of inputs as well as a single output, with chemical-electrical signals providing the IO. The specify of the output is determined by the number of active inputs as well as the stamina of those inputs. If there are sufficient active inputs, a threshold will be crossed as well as the output will ended up being active. Each output of a neuron acts as the input to one more neuron, producing the network.

Perceptron diagram via exactly how to Train a Neuarl NePythonによってPythonによってPythonでのTwork.
シリコン中のニューロン(そしてそれ故にニューラルネットワーク)を再現することも同様に単純であるべきである。合計には数の入力があります。入力を追加して、それらが特定のしきい値を超えているかどうかを出力します。それ以外の場合はゼロを出力します。ビンゴ!これは私達がニューロンを模倣することを可能にするが、それは残念ながら非常に役に立ちません。私達のビットシリコンニューロンをフラッシュメモリに格納する価値があるようにするために、我々は、入力と出力を少なくすることを要求しています…私たちは強度を提供すること、またはより一般的に理解されているタイトル:重みを提供する必要があります。

1940年代後半に、Frank Rosenblattの名前による男はPerceptronと呼ばれるこのことを発明しました。パーセプトロンは、前の段落で説明した私たちのビットシリコンニューロンのようなものです。その最も重要なのは、入力が重みを持つことです。重量の導入と少しフィードバックで、私たちは最も魅力的な能力を得ます…学ぶ能力。

kdnuggetsを介したソース
ターゲットに到達する方法を正確に学習するビットロボットに戻ります。ロボットに結果を与えただけでなく、XY座標系の距離測定の試行と誤差プロセスによってその結果を実現する方法を正確に発見するための独自の方向を作成しました。パーセプトロンの概念はこのプロセスの抽象化です。人工ニューロンの出力は私たちの結果です。私たちはニューロンに特定の入力セットの予定された結果を私たちに提供したいです。ニューロンには、必要になるまで入力の重みを変えることでこれを達成します。

重みを調整することは、逆伝播と呼ばれるプロセスによって行われます。これはフィードバックの一種です。それで、あなたは一連の入力、一連の重みと結果を持っています。私達は私達がそれを望んでいる場所からどれだけの結果があるかを正確に決定し、そしてそれから勾配のアイデアとして理解されている数学的思想を利用した重みを変えるために(誤差として知られています)。この「体重調整」プロセスは頻繁にトレーニングと呼ばれますが、私たちのビットロボットと同じように、試行錯誤のプロセスには何もありません。

深い学習

深い発見は最近のIoTよりも多くの定義を持っているようです。しかし、私が発見することができる最も単純な、最も直接前方のものは、そして複雑な問題を解決するために利用されるだけでなく、入力と出力との間に1つまたは複数の層を持つニューラルネットワークです。基本的に、深い発見は、従来のコンピュータにとって本当に困難なものをするために利用される複雑なニューラルネットワークです。

Kun Chenによる深い発見へのダミーガイドを介した深い発見図
入力と出力との間の層は隠れ層と呼ばれ、ニューラルネットの複雑さを大幅に向上させます。各層は特定の目的、ならびに階層内に配置されている。例えば、画像内のネコを決定するために訓練された深い発見ニューラルウェブがあれば、非常に第1の層は弧と同様に特定の線分を探すかもし​​れない。階層内の他の層が高い層は、一番上の層の出力を調べるとともに、円または三角形のように、より複雑な形状を決定しようとします。より高い層でさえも、目やウィスカーのように、オブジェクトを探します。階層的分類技術のより詳細な説明のために、不変表現に関する私の記事を必ず点検してください。

レイヤの実際の出力は、試行錯誤プロセスによって訓練されているので正確には理解されません。まったく同じ画像で訓練された2つの同様の深い発見ニューラルネットワークは、その隠れたレイヤーから異なる出力を作成します。 MITが発見しているので、これはいくつかの不快な問題を引き起こします。

現在、機械学習、ニューラルネットワーク、そして深い学習について話すのを聞いたとき、あなたはそれがどのように機能するのか、それがどのように機能するのかということを少なくとも曖昧な概念を持つべきです。ニューラルネットワークは今後長い間歩き回っていましたが、次の大きなものです。 【Steven Dufresne’s’s oftect of the Steven Dufresne’sは、マシン学習で手を試すためにTensorflowを活用するためにチュートリアルにジャンプしています。

Leave a Reply

Your email address will not be published. Required fields are marked *

Related Post

FPGAFPGA

[クレアチェン]との品質保証[マーク趙]、[Bruce Land]の研修生はCornellの生産部門を目的とした仕事をしました。一度に1つずつピクセルを処理するだけでなく、それらを視覚的にスキャンします。通常、ウィジェットが降りる時間は、実際の人々を検査するために持ってくる必要があるときです。この仕事は、不良を探すために侵食のように、形態学的画像処理を利用しています。 [クレア]と[マーク]と同様に、シミュレーション生産ラインをサーボ駆動ベルトで製造しています。 Cyclone V FPGAとARM Cortex-9を持つSoCは次に、生の写真をプロセスしてオブジェクトの色を確立しながら、欠陥を探すためにいくつかのアルゴリズムで実行します。 FPGAは、それらの色に加えて経過したスプレを正確にトラックし、毎秒5~10フレームの割合で99%の成功率を保持します。 FPGAは同様にピクセルの集まりとして各色のブロブを見て、互いに接触する複数のスプレを区別するのを助けるための接続性を確立します。 また、以前の学期から[クレア]と[マーク]の自転車SONARプロジェクトとを確認してください。

MOT溶接機の電流制限MOT溶接機の電流制限

[マイク価値]彼の電子レンジのオーブントランス溶接リグをそのフルパワーの少ない電力で実行することを選択することが望ましい。私たちが特集した他のMOT HACKSのいくつかの影響を受けた後、これを行うための大きな方法があるべきです。しかしトピックの彼の検索は何も起こらなかった。だから彼はちょうどローディングされたとともに、彼ら自身の調節可能な現在のリミッターを溶接者に開発しました。 彼のレビューの始めに彼は私たちが電話をかけるものを私たちが携帯電話のためのブートストラップ手順を呼び出します。彼がクランプを利用してコアの枠組みを一緒に保持していたことを確認するために、元の開発記事を締めくくるだけでなく、戻る。設定をより堅牢にするために彼はそれらを溶接するのに必要なものにしたが、これは彼がアクセスする唯一の溶接機です。だから彼はコイルを介して保護されていると同時に、それを終了した木の中に保護する木を巻きました。 現在のリミッタ自体は3番目のMOTから開発されています。 Eの字型の部分と同様にEを変えることによってコアに修正されます。これにより、巻線を変更することなく現在の制限があります。 [マイク]自転車ホイールクイックリンク串焼きの数をいくつか持っています。 それはあなたがトランスを引っ張ることなくマイクロ波を取り除くことは決してないようにすることを示すだけです。あなたが溶接していなくても、あなたは高電圧バグザッパーが好きではないでしょうか?

NPR Science Friday RoundupNPR Science Friday Roundup

更新:ここでセクションを聴きます。 あなたは今日のNPR Scienceのゲストになることを理解しましたか?これが最初のものであるならば、あなたがそれを聞いているのであれば、あなたはメーリングリストのために表示される必要があります(このページの右側の欄にサインアップ型があります)。 あなたがすでにショーに耳を傾けたら、プロジェクト上の製品のためのあなたの方法をここで発見したならば、心配しないでください。私たちはあなたがカバーされています。詳細だけでなく、仕事のリンクの際に仲介後に参加してください。 生きた夜明け 生物発光は生物学科学プロジェクトのための素晴らしい対象です。光を作り出すための単純な生物の能力は非常にクールです。しかし、ビットクリーチャーでいっぱいのベッドの隣に瓶を持つことはさらに良いです。上記のビデオで[Calebクラフト]を検査して、Pyrocystis fusiformisのあなた自身の文化をどのように保護するかを正確に見るために調べます。スターター培養は安価で、見つけにくい、そして非毒性である。夜間に最高のパフォーマンスを達成するために、日中のさまざまな種類の光にさらされることを試みることができます。長い運搬のためにあなたがそれに入っているならば、あなたは実験を無期限に行くことができます。オリジナルの求人投稿からもっと学びましょう。 ウォーターボトルロケット [Lou Wozniak]この水筒のロケットプロジェクトをまとめた。彼は片側に庭のホースを利用していて、他のものの空気圧縮機を利用したが、代わりにバイクポンプをどのように利用するかを正確に示している。ランチャー自体はPVCから作られています。試行のためのスペース、そして水の混合と気圧の混合の誤りがあります。空気力学の領域は、異なるボトル形状をテストすることによってチェックアウトするのが楽しいでしょう。また、ロケットにフィンやノーズコーンを追加します。これがプロジェクトの独自の機能です。 スチームエンジンモデル これは私が見たすべての可能な科学の仕事の私の好ましいものです。それは彼の2年生の科学プロジェクトのために[Christian Hegenberger]によって開発されたデザインの重い蒸気機関です。彼のお父さん[エリック]彼は彼が彼をはるかに難しいプロジェクトから彼に話しかけたと伝えます。 それは非常に困難な事業のような騒音が騒音があるかもしれませんが、仕事のウォークスルーは各部品を壊して、以前のエンジニアリングノウハウが必要でないことを確認します。 Hot Glue Gunを利用した場合、私たちは、飲酒ストロー、コートハンガー、ボール紙、プラスチックウォーターボトルを統合することができると確信しています。私たちは子供たちを含める必要さえあなたを信じていません…これはフル成長した実験と同じくらい楽しいでしょう。これが当社のオリジナルの機能ですが、以下のアクションでのビデオを見逃していません。 調理ハックボーナス! 私たちは[IRA]がまったく同じエピソードで夏時間の調理ハックを議論しようとしていたと聞いた。これが忘れられないもののカップルです。左側には、ミラーが簡単な輸送のために折りたたむ太陽オーブンです。右側には衛星テレビ料理で作られた調理器具があります。パラボラリフレクターはホイルテープで覆われています。元のレシーバーホーンが配置されている場所である鋳鉄の鍋に光を集めます。これはおいしい焼きたてがなを作るのに十分な暖かい以上のものを提供します。 フォローしてください @szczys.