Contents

[course] 모두를 위한 딥러닝 강좌 02-1

이 포스팅은 인프런 머신러닝 강좌 를 수강하며 공부한 내용을 정리한 것입니다.
코드 출처

지난 시간에 못한 TensorFlow 실습

섹션 1 실습 (기본적인 operations)

import tensorflow as tf

hello = tf.constant("Hello, TensorFlow!")

sess = tf.Session()

print(sess.run(hello))

위의 코드는 우리가 프로그래밍을 배우면서 가장 흔히 알고, 가장 기본적인 hello world를 텐서플로에서 실행하는 코드이다. 정말 간단하지만, 나 스스로도 텐서플로와 머신러닝을 처음 접하기 때문에, 하나하나 살펴보자면 tensorflow 를 import 하여 tf라는 이름으로 사용하기로 했었다. tf.constant라는 함수를 호출하여 "Hello, TensorFlow!"라는 문자열을 hello라는 변수에 저장하는 것이다. 이렇게 되면 앞서 배운 것과 같이 아무 Edge도 없는 Data Flow Graphhello라는 이름의 하나의 노드 가 생긴 것이다. 여기서 그냥 출력을 해도 되지만, Computational Graph를 실행하기 위해서는 Session이라는 것을 만들어야 하고 이 세션을 통해 .run을 호출하여 sess라는 이름의 텐서플로 세션을 통해 hello라는 노드를 실헹하겠다는 것을 의미한다.

이러한 과정을 통해 출력된 결과는 다음과 같다.

b'Hello, TesorFlow!'

여기서 bByte literals라는 것임을 의미한다. 바이트 스트링에 대한 자세한 예는 이 곳에 나와있다고 한다.

screenshot 다음 예제는 위와 같은 Computational Graph를 구현하는 것이다. a라는 노드와 b라는 노드를 하나의 다른 노드로 연결시키는 것이다. 아래와 같이 작성해보자.

node1 = tf.constant(3.0, tf.float32)
node2 = tf.constant(4.0) #also tf.float32 implicitly
node3 = tf.add(node1, node2) #node3 = node1 + node2

print("node1:", node1, "node2:", node2)
print("node3:", node3)

이에 대한 출력 결과는 아래와 같다.

node1: Tensor("Const_1:0, shape=(), dtype=float32) node2: Tensor("Const_2:0, shape=(), dtype=float32)
node3: Tensor("Add:0, shape=(), dtype=float32)

이를 출력하면 텐서플로가 이들은 그저 그래프 안의 요소(Tensor)라고 대답한다. 일반적인 경우처럼 연산에 대한 결과값이 나오는 것이 아니라, 각 Tensor들의 속성에 대한 정보만 출력한다.

그렇다면 연산을 실행하려면 어떻게 해야할까?

앞서 Hello TensorFlow!를 출력했던 것과 같이 Session을 만들어 주어야 한다.

sess = tf.Session()
print("sess.run([node1, node2]): ", sess.run([node1, node2]))
print("sess.run(node3): ", sess.run(node3))

이렇게 작성해야 비로소 우리가 얻고 싶은 결과를 얻을 수 있다.

sess.run([node1, node2]): [3.0, 4.0]
sess.run(node3): 7.0

여기까지 공부하면서, 우리는 다음과 같이 정리해볼 수 있다.

TensorFlowMachine

텐서플로우는 기존에 우리가 생각하는 프로그램과 약간 다르게 동작한다.

  1. 첫 번째로, TensorFlow Operation을 이용해서 Graph(Tensors)를 빌드해야 한다.
  2. 그 다음, sess.run을 통해 data를 넣은 뒤 우리가 만든 Graph를 실행시킨다.
  3. 그 결과로, 그래프 안에 있는 어떠한 값들이 update되거나, 어떠한 값을 return하게 된다.

그래프는 미리 만들어두고 실행시키는 단계에서 입력을 줄 수는 없을까?

a = tf.placeholder(tf.float32)
b = tf.placeholder(tf.float32)
adder_node = a + b

print(sess.run(adder_node, feed_dict={a: 3, b:4.5}))
print(sess.run(adder_node, feed_dict={a: [1, 3], b: [2,4]}))
7.5
[ 3.  7. ]

이처럼 placeholder를 활용하여 처음에 값을 지정하지 않은 노드를 만들 수 있고, feed_dict를 통해 sess.run을 실행하는 과정 중에 동적으로 값을 전달할 수 있다. sess.run(op, feed_dict={x: x_data}) 와 같은 용법으로 사용할 수 있다.

Tensor란 그래서 정확히 무엇인가?

기본적으로 배열로 표현되는 모든 것이 Tensor라고 한다.

TensorRank, Shape, Types 로 나누어 이야기 할 수 있는데,

Rank

  • Rank몇 차원 배열이냐 라는 의미에 해당한다.

    • s = 483Rank 0이며 수학적으로는 Scala 라고 불린다. 1차원은 Vector, 2차원은 Matrix

Shape

  • Shape각 Element에 몇 개씩 들어있는가?

    • 다시 말해, 각 Rank에 해당하는 element들이 몇 개씩인지를 의미한다.
    • Tensor 설계 시 Shape는 매우 중요한 개념이라고 한다…
    • 예를 들면 아래의 배열은 [2,2,3] Shape이다.
[
    [
        [1,2,3],[4,5,6]
    ],
    [
        [7,8,9],[10,11,12]
    ]
]

Types

  • Type이란 말 그대로 data type을 말한다.

    • 주로 tf.float32, tf.int32를 주로 사용한다고 한다.

내용이 조금 길어지는 것 같아서 나누어 다루어야 할 것 같다. 실습 한 강좌인데 정리하면서 들으려니까 왜이렇게 오래걸리는지…


Written by@[Anthony min]
Develop software, Develop myself, Develop life.

GitHubTwitterFacebookInstagram