@Blog
日常日誌からプログラムやYOUTUBER紹介、旅日記まで日々更新中です。

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.
2025.06.22
おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.
実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。
ローカルAI記事生成は、もはや夢物語じゃない
「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。
Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。
なぜLlama 3があなたのPCと相性抜群なのか?
Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。
- 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
- 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
- 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
- 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。
あなたのPCを「記事生成マシン」に変える秘訣
もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。
- 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
- プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
- 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。
あなたの創造性が、今、AIで加速する
かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。
とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.
ファインチューニングPythonコード
以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。
import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType
# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
# GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
# exit("GPUがないため終了します。")
else:
print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")
# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます
print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")
# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
bnb_4bit_compute_dtype=torch.bfloat16
)
# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"
# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
quantization_config=bnb_config,
device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")
# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")
# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます
print(f"データセットをロード中: {DATA_DIR}")
# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
exit("データセットロード失敗。")
# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
# Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
# ここでは一般的な値として2048を設定しています。
max_length = 2048
# truncate=Trueで最大長を超えるテキストを切り捨てます。
return tokenizer(examples["text"], truncation=True, max_length=max_length)
# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
tokenize_function,
batched=True,
num_proc=os.cpu_count(),
remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")
# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
bias="none", # バイアスを学習しない設定。
lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)
# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。
# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます
# 学習の設定
training_args = TrainingArguments(
output_dir=OUTPUT_DIR,
num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
save_steps=500, # 500ステップごとにモデルを保存します。
logging_steps=100, # 100ステップごとにログを出力します。
learning_rate=2e-4, # 学習率。
fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
max_steps=-1, # num_train_epochsに基づいて学習します。
group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
warmup_ratio=0.03, # ウォームアップ比率。
report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)
# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
model=model,
train_dataset=tokenized_dataset["train"],
args=training_args,
data_collator=lambda data: {
'input_ids': torch.stack([f['input_ids'] for f in data]),
'attention_mask': torch.stack([f['attention_mask'] for f in data]),
'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
},
)
# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")
# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")
# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
# MODEL_NAME,
# quantization_config=bnb_config,
# device_map="auto",
# trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
# outputs = peft_model.generate(
# **inputs,
# max_new_tokens=200, # 生成する新しいトークンの最大数
# do_sample=True, # サンプリングによる生成を有効化
# top_p=0.9, # Nucleusサンプリングの閾値
# temperature=0.7, # 生成の多様性を制御する温度
# eos_token_id=tokenizer.eos_token_id # 終了トークンID
# )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

15分、本を読む時間を作ろうと思っています.積本消化していこうと.
2025.06.19
おはようございます.読書は、知識を深め、視野を広げ、心を豊かにしてくれる素晴らしい習慣です。たった15分でも、毎日続けることで多くのメリットがあります。
なぜ15分なのか?
15分という時間は、忙しい日々の中でも比較的確保しやすい長さです。この短時間でも集中して読書に取り組むことで、次のような効果が期待できます。
- 集中力の向上: 短時間でも読書に没頭することで、集中力を養うことができます。
- 知識の定着: 毎日少しずつでも読み進めることで、内容が頭に残りやすくなります。
- ストレス軽減: 読書は現実から一時的に離れ、心を落ち着かせる効果があります。
- 語彙力と表現力の向上: 様々な文章に触れることで、自然と語彙が増え、表現力も豊かになります。
15分読書を習慣にするためのヒント
電子書籍も活用する: スマートフォンやタブレットで手軽に読める電子書籍も、隙間時間の読書に役立ちます。
時間と場所を決める: 「朝食後」「寝る前」「通勤電車の中」など、毎日同じ時間と場所で読むようにすると習慣化しやすくなります。
手の届くところに本を置く: すぐに手に取れる場所に本を置いておくと、いざ読もうと思ったときにスムーズに始められます。
好きなジャンルから始める: まずは自分が興味のある本や好きなジャンルの本から読み始めましょう。読書が楽しくなり、習慣化へのモチベーションが高まります。
無理はしない: 毎日続けられなくても、自分を責めないでください。少しずつでも継続することが大切です。
というメリット等をAIに提示してもらったので読書を始めようと思っています.
因みに自分は電子積本がかなり多いです、その積本を消化していこうと思ったのが15分の読書です.
積本を消化するには一字一句読まないに限る.
昔は本を一字一句読む派だったんだけど、この頃は飛ばし飛ばし読む派に変わりました.大体、こんな内容だなって所、分かるのでそういう所や分かっている説明文は飛ばすスタイルに切り替えました.
読了した本は積本感想を書いていきます.恐らく月に一回ぐらいに一つの感想なのかもしれないけど書いていきます.
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
こと, ジャンル, スタイル, ストレス, スマート, スムーズ, タブレット, ため, とき, ところ, ヒント, フォン, メリット, モチベーション, よう, 一つ, 一時, 内容, 効果, 向上, 場所, 多く, 大体, 大切, 好き, 定着, 感想, 手軽, 提示, 文章, 日々, 明日, 時間, 書籍, 朝食, 期待, 様々, 毎日, 没頭, 活用, 消化, 無理, 現実, 知識, 短時間, 確保, 継続, 習慣, 自分, 自然, 興味, 表現, 視野, 語彙, 説明, 読了, 読書, 豊か, 軽減, 通勤, 隙間, 集中, 電子, 電車,

iPhone13を買わない人です?、理由はコレコレさんですから。
2021.09.17
iPhone13を買わない人です?、理由はiPhone13の機能があまり向上していないとか、iPhone12のアップデート版だとかではなくて、iPhone13に買い替えてもその性能を引き出すことができる環境にいるかと言えば違うからという理由からです。性能を引き出すことが出来る環境というのは5G環境下にいないので慌てて買う必要なくね?という理由からiPhone14以降で自分は考えています。
あと自分としてはiPhoneも新ipad miniのようにUSBタイプCに変えてほしかったなという思いもあります。おそらくユーザーからタイプCは好評価を得ることが出来るので、iPhoneもゆくゆくはタイプCに置き換わると思います。
iPhoneからアンドロイド端末に変えようかなとか思ったりしていますが、iPhoneから新iPhoneにデータを移行するのにも時間がかかるのにアンドロイド端末に移行するとなるとますます、面倒くさいのでアンドロイド端末はアプリなどの動作テスト用にしか使わないですね。
トイウコトデ、今回のiPhone13に自分が買い換えることは無さそうです・・・。もしかしたら、こっそりiPhone13に変えているかもしれないけどね。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
12, 13, 14, 5, iPad, iPhone, mini, USB, アップデート, アンドロイド, こと, コレ, タイプ, データ, ユーザー, 人, 向上, 性能, 新, 時間, 機能, 理由, 環境, 移行, 端末, 自分, 評価,

映画、ジェミニマンを観ましたよ。
2021.03.17
映画、ジェミニマンを観ましたよ。どちらかという古典的な映画を観ている感じがしましたが、実際、こういう事が技術的には可能なわけですよね。北朝鮮とかもうこんな事を行っていてもおかしくはない気がする、そう思ってみると何だか、「ぞっ」とする話なんだけどね。そして臓器を3Dプリンターでつくる技術は年々、向上しているみたいでこのままの技術向上のまま進めば、自分たちが生きているうちに臓器の取替は可能になるみたいです。最初は保険が効かないし高額だと思いますが、臓器を変えることにより寿命延長できることは確かです。でも手術とかするのもやだなー怖いなーという自分はマイクロマシンやナノマシンに期待しています。そちらの方が安価な再生医療かなと思ったりしますね。そんな事を考えながらジェミニマンを見ていたわけではありません。
因みにジェミニとはローマ神話でカストルとポルックスの双子の兄弟を指すそうですよ。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
3, うち, カストル, こと, このまま, ジェミニ, そちら, だなー, どちらか, ナノ, プリンター, ポルックス, マイクロ, マシン, まま, マン, ローマ, わけ, 事, 保険, 兄弟, 再生, 北朝鮮, 医療, 双子, 取替, 可能, 向上, 安価, 実際, 寿命, 年々, 延長, 感じ, 手術, 技術, 方, 映画, 最初, 期待, 気, 神話, 臓器, 自分, 話, 高額,

m3を買うよりはwh-1000xm4を買うべしかも!?
2021.02.04
m3を買うよりはwh-1000xm4を買うべしかも!?と自分が思っています。来月あたりに買うつもりでいます。なぜ、型落ちモデルを買うよりはこちらが良いかというのは、差を調べたからいえることなのですが・・・。
一番はマルチ機能とノイズキャンセリング機能の向上されているぽっい所が自分の中で買いかなと思った次第です。因みにお値段は結構高いです、約4万円になる価格で、やっぱ高級ヘッドホンなので買うのに尻込みしそうです。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1000, 3, 4, wh-, xM, キャン, こちら, こと, セリング, つもり, ノイズ, ヘッドホン, マルチ, モデル, 一, 万, 中, 価格, 値段, 向上, 型落ち, 差, 来月, 機能, 次第, 自分, 高級,

仕事納め
2020.12.29
本日、仕事納めです。来年はどんな年になるのか、ワクワクしています。必ず良い年になるだろうと思っています。ワクチンにより567を撃退した世界になっていることを祈っております。自分にとってどんな年になるだろうかと少々、不安もありますがなるようなるだと思い、技術的なことを向上させていけたらなと思っています。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
グランツーリスモ7は凄い。
2020.06.15
グランツーリスモ7は凄い、リアル。
これを開発している人は凄いなと感じます。
仕事の話ですが、凄い人がいると思う環境で仕事をするのと
そうではない環境で仕事をするのとでは大きな違いが有ると思います。
日本企業は会社で成長できるという考え方があるところも未だあるかもしれないが、外資系は仕事で成長できるという考え方はない。仕事で自分は技術を教わったことが今まで無いに等しいのですが殆どの人は勉強しないだってさ。ある意味、ゆるげーなのかもしれない。
自分を向上させたかったら、自分よりも技術の高い人がいる環境に身を置くと良いかもしれない。そうすると嫌でも勉強し技術を習得しようとする心が生まれるから、ただここで注意点は向上心を持っていけるかどうかだと思います、それが出来ない上司がいる、否定するや劣悪な環境ならば転職したほうが良い。
技術は自分で身につけるものだけど環境はかなり大事だと。ひとを変えたければ環境だと思う。どんなに秀でた才能があっても環境が悪ければ花咲かないと、、。あと浴びせられる言葉も大事かなと思います。
いや、ゲームとは全然違う話でしたが、グランツーリスモ7は何がすごいかと言えば、リアルであるのに処理がスムーズなところです。かなりの計算処理が走っているのにモタツキがない所だと思います。ビジュアル的にも凄いけど、リアルを追求しているところが本当に凄いです。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
7, com, ecUQE-sDUtk, https, watch, www, youtube, グランツーリスモ, ここ, こと, これ, それ, ところ, リアル, 上司, 人, 仕事, 企業, 会社, 勉強, 向上, 向上心, 否定, 外資, 心, 意味, 成長, 技術, 日本, 殆ど, 注意点, 環境, 習得, 考え方, 自分, 話, 身, 転職, 違い, 開発,

プログラムの基礎しか書かないわけ。
2019.11.27
何故、自分のブログには基本的なプログラミングしかなく複雑なプログラムが存在しないわけはこちらです。
基本的な文法から複雑なプログラムが生まれるので基本的な部分がわかれば大体の人は応用できるだろうと
考えているからです。
自分の場合、勉強と経験からコードを組み立てています。人から教わらないけれど、ググると無数のコードと
解説が存在します。そんな先人が残したコードを読み取り習得するという形と参考書から情報を得たりして経験値を
積んでいます。
職場でプログラムを教わったことは今までほぼほぼ無いです。本当はOJTがあって然るべきだと思いますが中小企業に入るとそんなに甘くはないですね。
今の人はYOUTUBEなどでも無料でプログラミングの知識を取得することも可能です、そこらへんが少し羨ましいです。
ちなみに自分は教えられていないので後輩には自分が知っていることは教えるということを現場では心がけていました。知識って共有して向上するのですがブラック企業は技術を教えない技術は盗み取るものだという考え方が未だに根強いです。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
OJT, youtube, コード, こちら, こと, そこら, プ, ブログ, プログラミング, プログラム, べん, わけ, 中小企業, 人, 今, 何故, 先人, 共有, 勉強, 参考書, 取得, 可能, 向上, 基礎, 場合, 大体, 存在, 少し, 形, 後輩, 応用, 情報, 文法, 本当, 無数, 無料, 現場, 知識, 経験, 習得, 職場, 自分, 複雑, 解説, 部分,

ブログが続く人、続かない人の訳(´∀`)、SEOとかそんなの置いとけ。Part2
2015.01.29
?昨日の続き、ブログが続く人はだいたい自分の好きな分野で書いていることが多いです。自分ではパソコンヲタクではないと思っているだけで、たぶん、はたから見ればかなり、パソコンやプログラムに関してはマニアックなところまで知っているだと思います。
一般市民から見ればヲタクの分類分けされるだろうと思いますが、自分ではフィギュアとか持ってないし美少女アニメとか見ないしガンダムも知らない系なのでヲタクの分類分けをすると省かれるところに居座っているとは思っているですけど・・・
でも一般市民からすればヲタクなんだろうと。
ちなみに何故かこの分野の人って結構、ガンダムをこよなく愛する人が多いです。たぶん世代を通して話せる話題なんでしょうね、ある意味、共通言語みたいなものになっています。話し戻しまして基本的に好きな分野を掘り下げていくとネタにもなり自分の知識アップや能力向上にも繋がるので、そういう分野で記事を書くことをオススメします。
SEOの話になりますが何の記事で書けばよいか?、いちばん、おすすめは誰も敵がいない分野で書くことです。自分みたいにIT関係や映画のレビュー系だと敵が結構多いですね。ある意味、激戦なのでグーグルに記事を拾ってもらうのも結構シビアです。誰も書いていなく誰一人として土俵に上がっていない分野が一番有利です。
あと本屋さんに行けばSEOの参考の本などが並んでいると思いますが、はっきり言って役に立たないです(みんながやっていることですから)、じゃ何を参考にすればよいのかといえばWEBマーケティングの本だったりします。この本に書かれている内容は基本的にネットでどう立ち振る舞えば集約が多くなるのかといった話です。俗にいうネット上の営業です。
自分が気おつけている事ですが、記事の内容が少ないと拾ってもらえませんが、あまりSEOを意識しないことです。そこだけがポイントであとは地道な日々の積み重ねです。もうひとつ言うと、SNSと連携していなければ大体、初期のアクセス数はひと桁台です、それが一年間ずっと続いたりします。それでも日々の蓄積は大事です、いつ芽が出るか分からないからです。自分の場合、ある過去記事が、テレビで放送された後、検索ワードとリンクしてアクセス数がいきなり増えた経験があります。グーグルさんは新しい記事よりも古い記事のほうが信頼性が高いと判断しやすいです。なので未来に起こることを先読みすればアクセス数は増えるですけどね・・・・。
そんな未来予測は誰も出来ません・・・・未来予測はできないけれど大きなイベント等は予定に組み込まれていますし、テレビ番組は一週間先ぐらいまで予定として組み込まれています、なので全然、未来予測ができないわけでもないのです、トイウコトデ、そこが二つ目のポイントです、そういう事を念頭に置いて書くと、運が良ければ検索で上位に並ぶ可能性があります。
検索話のうんちく…、ユーザーは4つぐらいの方法でブログなどを閲覧しに来ます。
1つ目は検索よる訪問、2つ目はSNSよる訪問、3つ目は紙媒体の広告やメディアからの訪問、4つ目は他のページからリンクよる訪問、この4つだと自分は思っています。その中で検索が未だに重要なポイントを占めています。そしてこの検索が徐々に賢くなってきていて、今では、検索する場所や地域などにも関係してきています(もう過去形)。それがもっと賢くなってきていて今では位置情報を割り出して検索ヒットの順番を変えてたり、位置情報や時間帯からユーザーのニーズに答えるものになっていますし、検索アカウントログイン有無関係なしで検索過去履歴や時間帯なども考慮して検索結果を表示しています。また検索ワードが同じでも、時間を置いてから検索すると表示順序が変わってたりします。この検索の技術向上に裏には人工知能とビックデータが存在します。今後、この技術はますます向上していくと思いますので、これからは検索のことを考えるよりも、いかにすればユーザーが満足してくれるかを考えたほうが良いと自分は思っています。逆に言えばSNSユーザーに焦点を当てたWEBマーケティングを行ったほうが良さそうです。
?
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2, Part, SEO, アップ, アニメ, かなり, ガンダム, こと, ところ, ネタ, パソコン, はた, フィギュア, ブログ, プログラム, マニアック, もの, ヲタク, 一般, 世代, 人, 人はだ, 共通, 分け, 分野, 分類, 向上, 市民, 意味, 昨日, 書, 知識, 系, 美少女, 能力, 自分, 言語, 記事, 訳, 話題,