본문 바로가기

전체 글

(231)
[6기] 프로그래머스 인공지능 데브코스 84일차 TIL 1123 [14주차 - Day4] NLP: 단어 임베딩 NLP: 단어 임베딩 # 나중에 또 확인해 봐야 할 것 같은 헷갈리는 부분들 정리
[프로그래머스 코딩 테스트] 두 큐 합 같게 만들기 - KAKAO TECH INTERNSHIP 두 큐 합 같게 만들기 문제 설명 귀찮으니 간단하게만 설명하자면... 두 개의 숫자 리스트가 들어오는데, 그 숫자 리스트들의 각 합이 동일할 때까지 리스트 왼쪽 끝에서 pop, 오른쪽 끝에서 insert 하는 코드를 작성하고 최소 횟수가 몇 번인지 출력하면 된다.문제점은 몇 번을 반복한다 해도 두 큐의 합이 동일해질 리 없는 조건들도 고려해야 하고, 시간 제한이 있는 문제기 때문에 코드를 정말 몇 번 고쳤는지 모르겠다.... 덕분에 Big-O(빅오)에 대해 한 번 더 공부할 수 있어서 좋았다. 문제 풀이 내가 작성한 코드 1 from collections import deque def solution(queue1, queue2): answer = 0 nums_list = queue1 + queue2 q1..
[6기] 프로그래머스 인공지능 데브코스 83일차 TIL 1122 [14주차 - Day3] NLP: 문서분류 NLP: 문서분류 # 나중에 또 확인해 봐야 할 것 같은 헷갈리는 부분들 정리
[프로그래머스 코딩 테스트] 성격 유형 검사하기 - KAKAO TECH INTERNSHIP 성격 유형 검사하기 문제 설명 나만의 카카오 성격 유형 검사지를 만들려고 합니다. 성격 유형 검사는 다음과 같은 4개 지표로 성격 유형을 구분합니다. 성격은 각 지표에서 두 유형 중 하나로 결정됩니다. (문제는 본 사이트에서 정확하게 확인한다고 가정하고 간단하게만 정리하자면) like MBTI 4개의 지표가 있으므로 성격 유형은 총 16(=2 x 2 x 2 x 2)가지가 나올 수 있습니다. 예를 들어, "RFMN"이나 "TCMA"와 같은 성격 유형이 있습니다. 검사지에는 총 n개의 질문이 있고, 각 질문에는 아래와 같은 7개의 선택지가 있습니다. 매우 동의 나 매우 비동의 선택지를 선택하면 3점을 얻습니다. 동의 나 비동의 선택지를 선택하면 2점을 얻습니다. 약간 동의 나 약간 비동의 선택지를 선택하면 ..
[6기] 프로그래머스 인공지능 데브코스 82일차 TIL 1121 [14주차 - Day2] NLP: NLP: 언어모델 NLP: 언어모델 # 나중에 또 확인해 봐야 할 것 같은 헷갈리는 부분들 정리
[6기] 프로그래머스 인공지능 데브코스 81일차 TIL 1120 [14주차 - Day1] NLP: 텍스트 전처리 NLP: 텍스트 전처리 # 나중에 또 확인해 봐야 할 것 같은 헷갈리는 부분들 정리
[6기] 프로그래머스 인공지능 데브코스 80일차 TIL 1119 [13주차 - Day5] Spark 실습 과제 ML Pipeline 기반 머신러닝 모델 만들기 # 실습 필요한 패키지 다운로드 !pip install pyspark==3.0.1 py4j==0.10.9 Spark 생성 from pyspark.sql import SparkSession from pyspark.sql import SparkSession spark = SparkSession \ .builder \ .appName("Titanic Classification via ML Pipeline and Model Selection") \ .getOrCreate() 데이터셋 다운로드 !wget https://s3-geospatial.s3-us-west-2.amazonaws.com/titanic.csv..
[6기] 프로그래머스 인공지능 데브코스 79일차 TIL 1118 [13주차 - Day5] Spark Spark 3 타이타닉 생존 예측 모델 # 실습필요한 패키지 다운로드 !pip install pyspark==3.0.1 py4j==0.10.9Spark 생성 from pyspark.sql import SparkSession spark = SparkSession \ .builder \ .appName("Titanic Binary Classification example") \ .getOrCreate()데이터셋 다운로드 !wget https://s3-geospatial.s3-us-west-2.amazonaws.com/titanic.csv data = spark.read.csv('./titanic.csv', header=True, inferSchema..