Основные принципы кодирования информации в компьютере



Дата24.04.2023
өлшемі19,76 Kb.
#86069
түріРеферат

Қазақстан Республикасы оқу-ағарту министрлігі
Министерство просвещения Республики Казахстан

Д. Серикбаев атындағы ШҚТУ жоғары IT - колледжі


Высший IT – колледж ВКТУ им. Д.Серикбаева

РЕФЕРАТ
Пән/


Предмет «Информатика»

Тақырыбы:/


Тема:Основные принципы кодирования информации в компьютере

Студенттің аты- жөні/


Ф.И.О.студента:Ярчук Сергей________________________________

Курс:1____________________________________Тобы/________


Группа : 6-ОД-1Р

Оқытушы/Преподователь:


Диана Алибековна_
(Оқытушының қолы/
Подпись преподавателя)

Өскемен, 2022 ж.


Усть-Каменогорск, 2022 г.

О криптографии и кодировании
Криптография занимается поиском и исследованием методов преобразования информации с целью её шифрования.
Современная криптография образует отдельное научное направление на стыке математики и информатики — работы в этой области публикуются в научных журналах, организуются регулярные конференции. Практическое применение криптографии стало неотъемлемой частью жизни современного общества — её используют в таких отраслях как электронная коммерция, электронный документооборот (включая цифровые подписи), телекоммуникации и других.
Кодирование информации Представление информации с помощью определенного алфавита называется кодированием. Код — это система условных знаков для представления информации. Хранение, получение, представление и методы обработки информации будут зависеть ст типа фактически предоставленной информации. Кодирование информации иногда называют шифрованием, обратное же кодирование прямо связано с процессом декодирования. Двоичный алфавит представлен знаками 0 и 1. Чтобы отобразить информацию в двоичном коде, устройство должно различать два состояния. Например, на устройство поступает ток — это (1). Каждая цифра двоичного кода несет количество информации, равное одному биту
ASCII
Чтобы выразить текст числом, каждая буква сопоставляется с числовым значением. Кодируем все буквы, присваивая им свое значение. Но для всех пользователей должен быть единый стандарт. Самым распространенным видом кодирования является код ASCII. В современных компьютерах информация передается кодом ASCII (American Standart Code for Information Interchange - американский стандартный/код для обмена информацией).
Код АСИ был разработан в США Американским Национальным Институтом
Стандартизации (ASCII) для кодирования 256 символов, что предусматривает возможность размещения В-нём национальных символов с помощью
специальных программ. Множество комбинаций кодирования символов
называют таблице й кодов. Таблица кодов ASCII состоит из двух частей:

  • Стандартная часть- 0 до 127 символов. Сюда входят управляющие компьютером символы, строчные и прописные буквы латинского алфавита, десятичные цифры, знаки препинания, пробел и другие символы.

  • Альтернативный- от 128 до 255 символов. Сюда входят национальные алфавиты (рус. каз.) Можно также кодировать в ней вод десятичных, двоичных и шестнадцатеричных систем счисления по таблице соответствия.

Unicode
Когда мы говорим о кодировании, сразу вспоминается система международной кодировки символов Unicode. Важно не путать ее с ASCII — эти понятия не идентичны.ASCII появилась раньше и включает в себя меньше символов. В стандартной таблице их всего 128, если не считать расширений для других языков. А в «Юникоде», который реализуют кодировки UTF-8 и UTF-32, сейчас 2²¹ символов — это больше чем два миллиона. В набор входят практически все существующие сегодня символы, он очень широкий.
Unicode можно рассматривать как «продолжение», расширение ASCII. Первые 128 символов в «Юникоде» кодируются так же, как в ASCII, и это те же самые символы

Достарыңызбен бөлісу:




©emirsaba.org 2024
әкімшілігінің қараңыз

    Басты бет